Los avances en materia de Inteligencia Artificial (IA) impulsaron una discusión que no se centró únicamente en las posibilidades que surgen a partir del desarrollo e implementación de herramientas basadas en esta tecnología, sino además en los riesgos que implica.
Frente a las dudas que surgen sobre si es una decisión acertada continuar con los avances en materia de IA, varias personalidadas destacadas del ámbito tecnológico e intelectuales de otros campos firmaron una carta conjunta pidiendo frenar los desarrollos que buscan crear sistemas más potentes. Entre los nombres más destacados figura el de Elon Musk, el magnate dueño de Twitter.
Según indicó CNBC, durante la Cumbre del Gobierno Mundial realizada en febrero en Dubai, Emiratos Árabes Unidos, Musk sostuvo que "uno de los mayores riesgos para el futuro de la civilización es la Inteligencia Artificial". A su vez, añadió: "Es positivo o negativo y tiene una gran promesa, una gran capacidad", lo que conlleva "un gran peligro".
Luego de estas declaraciones, grandes referentes de la tecnología se unieron en un pedido difundido por el sitio Future of life que se tituló "Carta abierta FLI: Pausar los experimentos gigantes de la IA". Allí solicitaron que "los laboratorios pausen de inmediato y durante al menos seis meses el entrenamiento de los sistemas de IA más potentes que GPT-4".
Además del contenido de la carta, llamó la atención la lista de nombres de quienes firmaron el documento, que ya son más de 1.100. Además de Musk, también están Yoshua Bengio, Stuart Russell, el cofundador de Apple Steve Wozniak, Yuval Noah Harari, Andrew Yang, Connor Leahy y Emad Mostaque.
La carta detalla los potenciales riesgos para la sociedad y la civilización que acarrea la circulación de los sistemas de IA competitivos entra humanos en forma de interrupciones económicas y políticas, y pide a los desarrolladores que trabajen con los legisladores en materia de gobernanza y autoridades reguladoras.
"Como se establece en los Principios de IA de Asilomar, ampliamente respaldados, la IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, y debe planificarse y administrarse con el cuidado y los recursos correspondientes. Desafortunadamente, este nivel de planificación y gestión no está ocurriendo, a pesar de que en los últimos meses los laboratorios de IA entraron en una carrera fuera de control para desarrollar e implementar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de forma fiable", dice la carta.
"Los sistemas de IA contemporáneos ahora se están volviendo competitivos para los humanos en tareas generales y debemos preguntarnos: ¿Deberíamos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedad? ¿Deberíamos automatizar todos los trabajos, incluidos los de cumplimiento? ¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos en número, ser más inteligentes, obsoletas y reemplazarnos? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización? Tales decisiones no deben delegarse en líderes tecnológicos no elegidos", precisa el texto.
En la misma línea, los firmantes sostuvieron: "Los sistemas potentes de IA deben desarrollarse solo una vez que estemos seguros de que sus efectos serán positivos y sus riesgos serán manejables".
"Esto no significa una pausa en el desarrollo de la IA en general, simplemente un paso atrás de la carrera peligrosa hacia modelos de caja negra impredecibles cada vez más grandes, con capacidades emergentes", argumentaron.
ChatGPT y la discusión sobre IA
Desde su lanzamiento el año pasado, ChatGPT de OpenAI ha llevado a los rivales a acelerar el desarrollo de modelos de lenguaje grandes similares y a las empresas a integrar modelos de IA generativa en sus productos. La semana pasada, OpenAI anunció que se había asociado con alrededor de una docena de empresas para incorporar sus servicios en su chatbot , lo que permite a los usuarios de ChatGPT pedir comestibles a través de Instacart o reservar vuelos a través de Expedia. Sam Altman, director ejecutivo de OpenAI, no ha firmado la carta, dijo a Reuters un portavoz de Future of Life. "La carta no es perfecta, pero el espíritu es correcto: debemos reducir la velocidad hasta que entendamos mejor las ramificaciones", dijo Gary Marcus, profesor de la Universidad de Nueva York que firmó la carta. "Los grandes jugadores se están volviendo cada vez más reservados sobre lo que están haciendo, lo que dificulta que la sociedad se defienda de cualquier daño que pueda materializarse".