El lanzamiento del chatbot conversacional ChatGPT, de la compañía OpenAI, provocó un cimbronazo en la industria tecnológica que empujó a las grandes compañías del sector a incrementar sus inversiones en el campo de la Inteligencia Artificial (IA), entre ellas Google, que por primera vez encuentra una amenaza que podría quitarle su posición dominante en el mercado de las búsquedas.
Para no dejarse sobrepasar por sus competidores, Google lanzó (en algunos países y solo para quienes tengan invitación) una IA llamada Bard, que desde principios de febrero está en fase de experimentación y genera muchas dudas dentro de la compañía.
Directivos de Google, por ejemplo, aseguraron que el sistema fue capaz de aprender un idioma por su cuenta cuando no estaba entrenado para hacerlo. Su funcionamiento se basa en la tecnología Lenguaje Model for Dialogue Applicationd (LaMDA), con la que la empresa espera potenciar la experiencia de búsqueda para ofrecer "respuestas actuales y de alta calidad".
El rediseño del funcionamiento del motor de búsqueda más utilizado del mundo está a cargo de un equipo multidisciplinar de Google, denominado Proyecto Magi. Bard fue entrenada con un sistema que "durante varios meses leyó casi todo internet y creó un modelo de cómo se ve el lenguaje", según el vicepresidente senior de la compañía James Manyika.
A raíz de esta situación, Manyika y la vicepresidenta de Google, Sissie Hsiao, reconocieron que esta IA "no busca respuestas en internet como lo hace la búsqueda de Google", y que esas resuestas proceden "de un programa autónomo que fue en su mayoría autodidacta".
Aunque Bard no es "sensible" ni "consciente de sí mismo", sí es capaz de exhibir comportamientos similares a los humanos, ya que aprendió de individuos "que tienen sentimientos, emociones, ideas, pensamientos y perspectivas".
Por su parte, Sundar Pichai, CEO de Google, comentó que considera al proyecto "como un experimento de forma limitada" que tiene ciertos problemas que se deben resolver, como la capacidad de aprender "por sí mismo habilidades que no se esperaban que tuviera", según una entrevista publicasa por CBSN.
"Descubrimos que con muy pocas indicaciones en bengalí, la IA puede traducirlo todo", dijo Manyika, e insistió en que Google se está esforzando en investigar cómo ha sido esto posible y espera lograr que se haga con "mil idiomas".
Lo cierto es que, de momento, Pichai calificó a este tipo de procesos como una caja negra, y sus desarrolladores reconocen que no son capaces de explicar todo lo que la IA puede hacer.
"Bard es peor que inútil"
Según información interna a la que accedió Bloomberg, los desarrolladores que probaron el chatbot de inteligencia artificial impulsado por LaMDA (Language Model for Dialogue Applications) antes de su despliegue hicieron comentarios negativos en contra de la plataforma. "Bard es peor que inútil: por favor, no lo lancen", dijo un empleado en febrero de este año, después de evaluar la herramienta. "Es un mentiroso patológico", lanzó otro en relación con la falta de precisión en las respuestas que entregaba la herramienta. El ambiente de tensión y disgusto entre ciertos empleados de la compañía fue en aumento tras una serie de decisiones tomadas por la dirección después de lanzamiento de ChatGPT, según explica el mencionado medio estadounidense. Durante años, Google había estado trabajando en fortalecer su equipo de ética para sus iniciativas de inteligencia artificial. La misión de este grupo de expertos era ayudar a desarrollar productos y servicios que se encontraran alineados a los principios de la compañía, con altos estándares de seguridad. Pero este aspecto pasó a segundo plano luego de que OpenAI lanzara su chatbot, provocando así a los directivos de Google a acelerar el desarrollo de su propia herramienta.