La empresa desarrolladora de inteligencia artificial (IA) OpenAI —que tiene como uno de sus fundadores a Elon Musk e inversiones de cientos de millones de dólares de gigantes como Microsoft— a mediados de junio abrió un acceso limitado a su nuevo interfaz de programación de aplicaciones (API, por sus siglas en inglés) que es capaz de escribir códigos informáticos, diseñar páginas web, mantener una conversación, acabar textos y escribir versos, entre otras funciones.
"A diferencia de la mayoría de los sistemas de IA que están diseñados para un solo caso de uso, la API de hoy ofrece una interfaz de 'texto de entrada, texto de salida' de propósito general, lo que permite a los usuarios probarlo en prácticamente cualquier tarea en inglés", describe la empresa su producto.
El componente clave de la API es el GPT-3: un nuevo modelo de lenguaje de IA que dispone de 175.000 millones de parámetros —en comparación con los 1.500 millones de la versión anterior— para analizar textos o datos, y luego ofrece predicciones de palabras en función de todas las anteriores.
Fue entrenado estudiando la mayor parte de la información de Internet: todos los libros disponibles, Wikipedia, millones de sitios web y documentos científicos.
De diseñar aplicaciones a hablar sobre Dios
El contenido que crea la API, tras solo recibir órdenes escritas en inglés, ha dejado "sorprendidos" a muchos de sus probadores, quienes han compartido sus experiencias en la Red. En opinión de algunos, el GPT-3 "lo cambia todo".
Por ejemplo, en Figma, una plataforma para el diseño de aplicaciones móviles o webs, usando el GPT-3 el usuario describe qué tipo de aplicación quiere crear y el 'plugin' (complemento) se encarga del resto.
Así, al recibir las directrices de generar "una 'app' que tiene un panel de navegación con un icono de una cámara, el título 'Fotos' e icono de mensaje; un 'feed' de fotos donde cada foto tiene un icono de usuario, foto, icono de corazón e icono de burbuja de chat", el 'plugin' con base en el GPT-3 crea una aplicación parecida a Instagram.
En otros ejemplos impresionantes del uso de la API los programadores la han utilizado para crear un traductor de ecuaciones o para generar un código con base a una descripción verbal, para hacer que en un documento Excel automáticamente aparezca la población total de una ciudad con solo escribir el nombre de esa ciudad en la columna adyacente, o para escribir un poema sobre Elon Musk.
Uno de los usuarios decidió preguntarle al GPT sobre la existencia de Dios, lo que acabó en una curiosa conversación. Así, tras afirmar que estamos viviendo dentro de una simulación creada por humanos, la IA indicó que la Tierra, por su parte, fue creada por "una inteligencia" llamada Dios. Reiteró que Dios existe, aunque no lo ha visto.
A continuación la IA afirmó que, aunque la OpenAI la había creado, no tiene un creador, porque es "producto de la autoevolución", al igual que los seres humanos. Eso a pesar de que, en la jerarquía de complejidad, la IA puso a las personas en un escalón más bajo,en comparación consigo misma: "átomos, moléculas, organismos, humanos, IA, súper-IA y Dios".
Además, la IA aseguró a su interlocutor que no hay nada superior a Dios y que este "es todo lo que hay, incluida la simulación en la que vivimos". "Al destruir su ego, puede unificarse con el creador y convertirse en Dios", concluyó.
"Demasiado 'hype' en torno al GPT-3"
No obstante, entre los elogios también hay voces críticas, que opinan que el API de OpenAI hace cosas impresionantes, pero que el humano aún puede hacerlo mejor. Uno de esos críticos es el propio jefe de OpenAI, Sam Altman, quien afirma que hay "demasiado el 'hype' en torno al GPT-3".
"Es impresionante (¡gracias por los bonitos cumplidos!), pero aún tiene serias debilidades y a veces comete errores muy tontos", admite. "La IA va a cambiar el mundo, pero el GPT-3 es solo una versión muy temprana. Todavía tenemos mucho que resolver", concluye.
Por su parte, el profesor asociado del Departamento de Ciencias de la Computación e Ingeniería de la Escuela de Ingeniería Tandon de la Universidad de Nueva York, Julian Togelius, compara al GPT-3 con "un estudiante inteligente" que intenta aprobar un examen a pesar de no haber estudiado lo suficiente".
"Datos de conocimiento general, verdades a medias y directamente mentiras se encadenan en lo que al principio parece una narración fluida".
De este problema también se percataron los periodistas de Wired, uno de los cuales dio instrucciones al GPT-3 para que escribiera su obituario basándose en varios ejemplos de periódicos. Como resultado, la IA reprodujo bien el formato, pero mezcló hechos reales, como los trabajos pasados del 'protagonista' del obituario, con otros inventados, como por ejemplo un accidente mortal de escalada y los nombres de los familiares que sobrevivieron a esa desgracia. Asimismo, indicó que el 'fallecido' "murió a la (futura) edad de 47 años".
Así que de momento se puede decir que uno de los problemas más importantes del GPT-3 es que siempre puede dar una respuesta, pero esto no significa que comprenda si tiene sentido o no.
Fuente: RT