El pasado 25 de octubre de 2019, Pandu Nayak, Miembro y Vicepresidente de Google Search, anunció el lanzamiento de BERT (Bidirectional Encoder Representations from Transformers), la sofisticación más grande en su algoritmo de búsqueda, desde hace 5 años, cuando por primera vez el gigante de Internet implementó Rank Brain un sistema de Inteligencia Artificial orientado a procesar semánticamente de manera más eficiente los criterios de búsqueda hechos por los usuarios.
A partir de entonces, el motor de búsqueda con sede en Mountain View, California, no era capaz de predecir los vectores principales de un criterio de búsqueda, ya que sus sistema no estaba capacitado para aprender del contexto de las palabras, tal como lo haría un humano.
Con BERT, elementos gramaticales como artículos, conjunciones, preposiciones o sintagmas serán decisivas para que los algoritmos del buscador comprendan mejor si se trata de una query conversacional, informativa o transaccional.
Con la implementación de Rank Brain, el algoritmo de Google ha sido capaz de clasificar de manera más eficiente los millones de páginas web, impactando directamente a su sistema de clasificación y enriquecimiento de resultados ofreciendo así al usuario resultados de búsqueda más precisos en función de las intenciones de búsqueda de los usuarios.
En este divertido video Adam Lash, explica detalladamente cómo funciona BERT.
Hacia un modelo de búsqueda más conversacional y humano
Con BERT , Google apuesta por la sofisticación de un lenguaje de búsqueda que se acerque cada vez al modelo humano.
Y es que si por un lado hemos visto que la comunicación móvil está en un momento de crecimiento exponencial, por el otro tenemos que cada vez son más los asistentes virtuales en el mercado, situación que ha llevado a los grandes tecnológicos a desarrollar redes neuronales artificiales que sean capaces de predecir qué es lo que una persona u otra está buscando, tan solo con analizar el orden y el contexto de sus palabras.
Esto nos lleva a recalar en uno de los datos más interesantes compartidos por Google recientemente. Y es que cerca del 15% de las búsquedas actuales, jamás de habían hecho anteriormente. Estamos frente a una red de redes que no sólo evoluciona, sino que también aprende.
En ese sentido, la técnica BERT se basa en la ‘red neuronal de código abierto’ para la formación previa al procesamiento del lenguaje natural (PNL) y se preve que entre un 1% y un 10% de las búsquedas se vean afectadas a partir de su implementación primero en el mercado de habla inglesa y poco a poco en los demás idiomas.
¿Los ganadores? Especialmente los usuarios, ya que tendrán mejores resultados de búsqueda y todos aquellos generadores de contenido que hayan dedicado tiempo suficiente para crear contenido de calidad, teniendo en cuenta no sólo la satisfacción inmediata de las necesidades del usuario, sino también aquellos que hayan investigado, ¿predicho? y rastreado de manera profunda las intenciones de los usuarios alrededor de sus productos, servicios o temáticas a través de técnicas de keyword research profundo.