Si algo ha caracterizado al gigantesco y popularísimo Google ha sido el algoritmo en el que se basan las casi 3.000 millones de búsquedas que se hacen en su página todos los días.
Sin embargo, en los últimos meses -y de acuerdo al reporte de la propia empresa- ese algoritmo necesitaba ser optimizado para estar a la par con los objetivos del gigante de las búsquedas.
Google: Sistema Neuronal
De acuerdo a Google, BERT es una red neuronal de código abierto que ha sido entrenada para procesar el lenguaje natural.
“Esta tecnología permite entrenar a su propio sistema para mejorar y aumentar la capacidad de responder a las preguntas en Google”, explicó Nayak.
En síntesis, lo que hace distinto a BERT de lo que actualmente ofrece Google es que procesa las palabras en el contexto de una oración, en lugar de palabra por palabra.
“BERT puede considerar el contexto completo de una palabra al observar las que vienen antes y después, y esto es útil para comprender la intención que tienen las consultas que se hacen en el buscador”, aclaró Nayak.
¿Si es más efectivo?
Por ahora BERT solo estará en uso en búsquedas en inglés, pero se anunció que pronto estará disponible para idiomas como coreano, hindi y portugués.
Sin embargo, varios analistas en tecnología han señalado que, a pesar de los avances que trae BERT, no se soluciona el problema de fondo a la hora de entender el lenguaje.
“Las preposiciones y los pronombres han sido muy problemáticos históricamente para los buscadores, pero BERT ayuda bastante con esto. El contexto mejora debido a la naturaleza bidireccional del nuevo algoritmo”, explicó el experto en algoritmos Dawn Anderson a la revista Search Engine Journal.
“Pero todavía queda mucho trabajo por delante. Por ejemplo, la palabra ‘bajo’ significa muchas cosas (puede ser un adjetivo o un instrumento musical). Hay muchos significados para una sola palabra. Por eso es vital que se entienda el contexto para poder entender el significado preciso del término”, agregó.