Según fuentes de Tech.co , mientras se desarrollaba la polémica por el despido del CEO Sam Altman y su posterior regreso a OpenAI, uno de los rumores era sobre una carta enviada por los investigadores de la compañía a la junta directiva, expresando preocupaciones sobre el modelo de superinteligencia de IA que se está desarrollando y que potencialmente podría representar una amenaza para la humanidad.
(Ilustración)
Proyecto Q*
Se dice que el modelo, conocido internamente como Proyecto Q* (pronunciado Q-star), representa un gran avance en la búsqueda de inteligencia artificial general (AGI) de OpenAI, una rama altamente autónoma de la superinteligencia capaz de aprendizaje acumulativo y superar a los humanos en la mayoría de las tareas.
Q* podría marcar un gran salto adelante en inteligencia artificial al mejorar radicalmente las capacidades de razonamiento de la IA y acercar a OpenAI a un gran avance en el desarrollo de la AGI, según personas familiarizadas con el asunto.
A diferencia de los modelos de IA actuales, que se centran en la capacidad de generar respuestas basadas en información previamente aprendida, la AGI es un sistema autónomo que puede aplicar la “razón” a las decisiones, lo que le otorga capacidades de resolución de problemas a nivel humano.
Aunque la IA general aún no se ha realizado plenamente, muchos expertos creen que la tecnología también tendrá la capacidad de aprender de forma acumulativa, otro rasgo que otorga a los humanos la capacidad de mejorar sus habilidades.
Algunas fuentes afirman que el proyecto Q* de OpenAI ha demostrado las propiedades mencionadas al resolver problemas. Además, gracias a la enorme potencia computacional del modelo, Q* ha superado a estudiantes de primaria, demostrando habilidades de razonamiento y cognitivas que superan con creces las capacidades de la tecnología de IA actual.
No está claro cuánto tiempo ha estado Q* en desarrollo y cuáles podrían ser sus aplicaciones, pero OpenAI informó a los empleados y miembros de la junta sobre el proyecto antes de que estallara el escándalo de personal.
Preocupaciones éticas
Si bien el director ejecutivo de OpenAI, Sam Altman, confía en que la tecnología AGI impulsará la innovación, algunos investigadores se han apresurado a señalar los peligros potenciales del proyecto.
En una carta dirigida a la junta, los investigadores advirtieron sobre los posibles peligros de este poderoso algoritmo para la humanidad. Si bien no se revelaron las preocupaciones éticas específicas sobre la IA descritas en la carta, las advertencias fueron suficientes para justificar la decisión de la junta de despedir a Altman.
Mientras tanto, la razón inicial esgrimida para despedir a Altman fue que el director ejecutivo "se comunicaba mal". Pronto encontró un nuevo puesto en Microsoft. Esta acción provocó que 700 de los 770 empleados de OpenAI amenazaran con hacer lo mismo si no reincorporaban al director ejecutivo.
Con la empresa en peligro de colapso, la junta directiva de OpenAI se vio obligada a restituir a Altman en el puesto principal, lo que también condujo a una importante revisión del equipo ejecutivo de la empresa y puso de relieve profundas divisiones dentro de su liderazgo.
Ahora que Altman ha vuelto al cargo y es probable que el Proyecto Q* vuelva a recibir luz verde, surgen nuevas preguntas.
¿Qué tan realista es el Proyecto Q*?
Si bien los días tumultuosos en OpenAI han puesto el concepto de AGI en el centro de atención, esta no es la primera vez que Altman menciona la tecnología.
El emprendedor de Silicon Valley se vio envuelto en problemas en septiembre tras comparar la IA con "un humano promedio que podrías contratar como compañero de trabajo". Continuó con los comentarios que hizo el año pasado sobre cómo la IA podía "hacer todo lo que uno podría hacer con un compañero de trabajo remoto", incluyendo aprender a ser médico y a ser un buen programador.
Si bien comparar la IA general con la inteligencia de un “humano promedio” no es nada nuevo, el uso de la frase por parte de Altman fue considerado “aborrecible” por el especialista en ética de IA y profesor de la Universidad de Cambridge, Henry Shevlin, a medida que aumentan las preocupaciones sobre el impacto de la IA en la seguridad laboral.
Los posibles avances en IAG también están haciendo sonar las alarmas para otros investigadores: la tecnología se está desarrollando más rápido de lo que los humanos pueden comprender plenamente su impacto.
OpenAI cree que los resultados positivos de la IA general hacen que valga la pena explorar este arriesgado "campo minado". Sin embargo, a medida que la empresa avanza en esta dirección, a muchos les preocupa que Altman priorice el éxito comercial por encima de los intereses de los usuarios y la sociedad.
Phuong Anh (Fuente: Tech.co, The Guardian)
[anuncio_2]
Fuente
Kommentar (0)