En un informe del 23 de noviembre, Reuters citó dos fuentes que dijeron que la carta nunca se había mencionado antes y que el algoritmo de IA fue un desarrollo importante antes de que Sam Altman, cofundador y director ejecutivo de OpenAI, fuera despedido el 17 de noviembre. Según estas fuentes, la carta fue un factor en la lista de razones para la decisión de despedir a la junta directiva de OpenAI.
Los investigadores que escribieron y enviaron la carta no respondieron inmediatamente a una solicitud de comentarios.
Altman regresó triunfalmente a última hora del 21 de noviembre, después de que más de 700 empleados de OpenAI amenazaran con renunciar y unirse a Microsoft junto con el director ejecutivo despedido. Esto puso fin a casi una semana de agitación con una serie de acontecimientos inesperados en OpenAI, una de las empresas de investigación de IA más importantes del mundo y propietaria de la popular aplicación ChatGPT.
El Sr. Altman en un evento de la APEC en Estados Unidos el 16 de noviembre.
Según una de las fuentes, una de las gerentes senior de OpenAI desde hace mucho tiempo, Mira Murati, mencionó un proyecto llamado Q* (pronunciado "Q Star") a los empleados el 22 de noviembre y dijo que se había enviado una carta a la junta directiva de la compañía antes de las ondas de choque de la industria tecnológica global el fin de semana pasado.
Después de que se informó la historia, un portavoz de OpenAI dijo que la Sra. Murati les había dicho a los empleados lo que los medios iban a informar, pero que no haría comentarios sobre la precisión de la información.
Sam Altman regresa como CEO de OpenAI
Una de las fuentes reveló que OpenAI ha avanzado en el Proyecto Q*. Algunos miembros de la empresa creen que el proyecto podría suponer un gran avance en la búsqueda de superinteligencia, también conocida como inteligencia artificial general (IAG), de OpenAI. La empresa define la IAG como un sistema de IA más inteligente que los humanos.
Gracias a sus vastos recursos computacionales, el nuevo modelo puede resolver algunos problemas, según la fuente. Aunque el modelo solo realiza cálculos matemáticos a nivel de primaria, su capacidad para resolver estos problemas hace que los investigadores sean muy optimistas sobre el éxito futuro de Q*, afirmó la fuente.
Los investigadores consideran las matemáticas como una frontera en el desarrollo de la IA generativa. Actualmente, la IA generativa puede escribir y traducir entre idiomas, aunque las respuestas a las mismas preguntas pueden ser muy diferentes. Pero dominar las matemáticas —un campo donde solo hay una respuesta correcta— implica que la IA mejorará su razonamiento, al igual que la inteligencia humana. Los investigadores de IA creen que esto podría aplicarse a nuevas investigaciones científicas .
A diferencia de una computadora, que solo puede resolver un conjunto limitado de cálculos, la IA generaliza, aprende y comprende problemas. En una carta dirigida a la junta directiva de OpenAI, los investigadores destacaron el poder y los peligros potenciales de la IA, según diversas fuentes. Los informáticos han debatido durante mucho tiempo los peligros que representan las máquinas superinteligentes, como la posibilidad de que decidan destruir a la humanidad para su propio beneficio.
En ese contexto, el Sr. Altman lideró los esfuerzos para convertir ChatGPT en una de las aplicaciones de software de más rápido crecimiento en la historia y atraer la inversión (y los recursos informáticos) de Microsoft necesarios para acercarse a la superinteligencia generalizada, o AGI.
Además de anunciar una serie de nuevas herramientas en un evento este mes, el Sr. Altman dijo a los líderes mundiales en San Francisco la semana pasada que cree que la IAG está a nuestro alcance.
Un día después, la junta directiva de OpenAI despidió al Sr. Altman.
[anuncio_2]
Enlace de origen
Kommentar (0)