De acordo com fontes do Tech.co , enquanto a controvérsia sobre a demissão do CEO Sam Altman e seu posterior retorno à OpenAI acontecia, um dos rumores era sobre uma carta enviada pelos pesquisadores da empresa ao conselho de administração, expressando preocupações sobre o modelo de superinteligência de IA que estava sendo desenvolvido e que poderia representar uma ameaça à humanidade.
(Ilustração)
Projeto Q*
O modelo, conhecido internamente como Projeto Q* (pronuncia-se Q-star), representa um grande avanço na busca da OpenAI por inteligência artificial geral (AGI) — um ramo altamente autônomo da superinteligência capaz de aprendizado cumulativo e de superar humanos na maioria das tarefas.
Q* pode marcar um grande salto à frente na inteligência artificial ao melhorar radicalmente as capacidades de raciocínio da IA e aproximar a OpenAI de um grande avanço no desenvolvimento da AGI, de acordo com pessoas familiarizadas com o assunto.
Ao contrário dos modelos atuais de IA, que se concentram na capacidade de gerar respostas com base em informações aprendidas anteriormente, a AGI é um sistema autônomo que pode aplicar “razão” às decisões, dando-lhe capacidades de resolução de problemas de nível humano.
Embora a AGI ainda não esteja totalmente desenvolvida, muitos especialistas acreditam que a tecnologia também terá a capacidade de aprender cumulativamente, outra característica que dá aos humanos a capacidade de melhorar suas habilidades.
Algumas fontes afirmam que o projeto Q* da OpenAI conseguiu demonstrar as propriedades acima na resolução de problemas. Além disso, graças ao enorme poder computacional do modelo, o Q* superou alunos do ensino fundamental, demonstrando habilidades de raciocínio e cognitivas significativamente superiores às capacidades da tecnologia de IA atual.
Não está claro há quanto tempo o Q* está em desenvolvimento e quais podem ser suas aplicações, mas a OpenAI informou os funcionários e membros do conselho sobre o projeto antes do escândalo de pessoal estourar.
Preocupações éticas
Embora o CEO da OpenAI, Sam Altman, esteja confiante de que a tecnologia AGI impulsionará a inovação, alguns pesquisadores foram rápidos em apontar os potenciais perigos do projeto.
Em uma carta ao conselho, os pesquisadores alertaram sobre os potenciais perigos desse poderoso algoritmo para a humanidade. As preocupações éticas específicas sobre IA descritas na carta não foram divulgadas, mas os alertas foram suficientes para justificar a decisão do conselho de demitir Altman.
Enquanto isso, o motivo inicial alegado para a demissão de Altman foi que o CEO "se comunicava mal". Ele logo conseguiu um novo cargo na Microsoft. Essa ação levou 700 dos 770 funcionários da OpenAI a ameaçarem fazer o mesmo caso o CEO não fosse reintegrado.
Com a empresa em perigo de colapso, o conselho da OpenAI foi forçado a reintegrar Altman ao cargo mais alto — o que também levou a uma grande reformulação da equipe executiva da empresa e destacou profundas divisões dentro de sua liderança.
Agora que Altman está de volta ao cargo e o Projeto Q* provavelmente receberá sinal verde novamente, novas questões surgem.
Quão realista é o Projeto Q*?
Embora os dias tumultuados na OpenAI tenham trazido o conceito de AGI à tona, esta não é a primeira vez que Altman menciona a tecnologia.
O empreendedor do Vale do Silício se viu em maus lençóis em setembro após comparar a IA a "um ser humano comum que você contrataria como colega de trabalho". Ele deu continuidade aos comentários que fez no ano passado sobre como a IA poderia "fazer tudo o que você faria com um colega de trabalho remoto", incluindo aprender a ser médico e um bom programador.
Embora comparar a IAG à inteligência de um "ser humano médio" não seja nenhuma novidade, o uso da frase por Altman foi considerado "abominável" pelo especialista em ética da IA e professor da Universidade de Cambridge, Henry Shevlin, à medida que aumentam as preocupações em torno do impacto da IA na segurança do emprego.
Possíveis avanços na AGI também estão acendendo o alarme para outros pesquisadores — que a tecnologia está sendo desenvolvida mais rápido do que os humanos conseguem compreender completamente seu impacto.
A OpenAI acredita que os resultados positivos da IAGI fazem com que valha a pena perseguir o arriscado "campo minado". Mas, à medida que a empresa avança nessa direção, muitos temem que Altman esteja priorizando o sucesso comercial em detrimento dos interesses dos usuários e da sociedade.
Phuong Anh (Fonte: Tech.co, The Guardian)
Fonte
Comentário (0)