En consecuencia, la empresa propietaria de ChatGPT y Dall-E asumió varios compromisos en materia de políticas de IA. «La empresa se compromete a colaborar con el gobierno estadounidense y los legisladores de todo el mundo para apoyar el desarrollo de requisitos de licencia para todos los modelos de IA de alto rendimiento en el futuro».
La idea de un proceso de licencia de IA, co-promovido por líderes de la industria como OpenAI y el gobierno, está preparando el escenario para un posible conflicto entre nuevas empresas y desarrolladores de código abierto, quienes lo ven como un intento de dificultar la entrada al espacio de la IA.
En una audiencia ante el Congreso de Estados Unidos, el CEO de OpenAI, Sam Altman, planteó una vez la idea de establecer una agencia encargada de otorgar licencias o revocar productos de IA si violan las reglas establecidas.
La revelación de OpenAI se produce mientras otras grandes empresas de inteligencia artificial como Microsoft y Google también están considerando medidas similares.
Sin embargo, la vicepresidenta de asuntos globales de la compañía, Anna Makanju, afirmó que el documento de política interna diferiría de la política que se espera que publique la Casa Blanca. OpenAI afirmó que la compañía no presiona, pero cree que la concesión de licencias es una forma práctica para que los gobiernos regulen los sistemas emergentes.
“Es importante que los gobiernos sepan si estos sistemas superpoderosos podrían causar daños” y “existen muy pocas maneras de que las autoridades conozcan estos sistemas sin informarse ellas mismas”.
Makanju dijo que OpenAI sólo admite la concesión de licencias a modelos de IA más potentes que GPT-4 y quiere asegurarse de que las empresas emergentes más pequeñas no tengan que soportar la carga regulatoria.
Rendición de cuentas y transparencia
OpenAI también ha indicado en documentación interna que está dispuesta a ser más transparente respecto a los datos que utiliza para entrenar generadores de imágenes como Dall-E. La empresa afirma su compromiso con un enfoque transparente y responsable respecto a los datos de desarrollo de IA.
Los analistas señalaron que los compromisos descritos en el memorando de OpenAI son muy coherentes con algunas de las propuestas políticas que Microsoft presentó en mayo. OpenAI señaló que, a pesar de recibir una inversión de 10 000 millones de dólares de Microsoft, sigue siendo una empresa independiente.
Además, la empresa propietaria de ChatGPT también realizó una encuesta sobre marcas de agua para rastrear la autenticidad y los derechos de autor de las imágenes generadas por IA.
En el memorando, OpenAI parece reconocer los riesgos potenciales que los sistemas de IA representan para el mercado laboral, así como la desigualdad. La compañía afirmó en el borrador que realizaría investigaciones y formularía recomendaciones a los responsables políticos para proteger la economía de posibles perturbaciones.
La compañía también dijo que está abierta a permitir que las personas accedan y prueben sus sistemas en busca de vulnerabilidades en una variedad de áreas que incluyen contenido ofensivo, manipulación y desinformación, y apoya la creación de un centro colaborativo de intercambio de información sobre ciberseguridad.
(Según Bloomberg)
[anuncio_2]
Fuente
Kommentar (0)