La novela que incluyó el despido y, días después, el regreso del director ejecutivo de OpenAI, Sam Altman, a la compañía podría estar relacionada con la preocupación de parte de los trabajadores de la empresa en torno a una Inteligencia Artificial (IA) que podría representar "una amenaza para la humanidad".
De acuerdo con una carta que le llegó a la junta directiva por parte de los empleados, Altman tenía planeado lanzar esta IA al mercado sin evaluar detenidamente sus potenciales consecuencias. Al sistema en cuestión lo denominaron como Q* (pronunciado como Q-Star).
Q-Star, en realidad, es el nombre del proyecto destinado al desarrollo de una inteligencia artificial general (AGI, por sus siglas en inglés), que es el objetivo central de OpenAI. Una IA de este tipo sería mucho más capaz y poderosa que GPT-4, el modelo en base al cual funciona actualmente ChatGPT.
Una de las características que diferenciarían a Q-Star de GPT-4 sería su capacidad para resolver problemas matemáticos. ChatGPT, por su parte, solamente es hábil para tareas como la escritura, generación de contenido y traducciones, relacionadas con el análisis de la información.
Qué se sabe sobre Q-Star de OpenAI
Según rumores que trascendieron durante los últimos días, Q-Star estaría desarrollada sobre la base de dos tipos de algoritmos: uno llamado Q-learning, que se encargaría de las tareas de aprendizaje por refuerzo o a través del método de prueba y error; y otro denominado A*, que mejoraría la eficiencia a la hora de buscar soluciones para los problemas planteados anticipando posibles obstáculos.
Esta nueva IA en la que estaría trabajando la compañía podría representar un avance significativo en cuanto a las capacidades de una tecnología que, en cuestión de meses, se volvió de uso masivo y atravesó a múltiples industrias.
El hecho de que pueda resolver correctamente problemas matemáticos como ecuaciones, aunque de momento se trataría de cálculos de poca dificultad, implica una diferencia con respecto a las respuestas de ChatGPT, que pueden variar y aún así ser acertadas. Pero en matemática la solución correcta es una sola, lo que demanda mayor precisión.
Según se manifestó en la carta interna de OpenAI a la que accedió Reuters, los desarrolladores se preguntan si estos modelos podrían ser lo suficientemente avanzados como para decidir que la destrucción de la humanidad les conviene.
Lo concreto es que, en medio del escándalo que se vivió en la compañía hace casi dos semanas, se han intensificado los debates sobre la seguridad de la IA y las decisiones que están tomando los responsables de desarrollar esta tecnología al lanzar productos al mercado sin tener la certeza de que no representarán un peligro para la sociedad.