Vietnam.vn - Nền tảng quảng bá Việt Nam

Độc lập - Tự do - Hạnh phúc

O modelo de 'superinteligência' por trás do escândalo da OpenAI

VTC NewsVTC News01/12/2023

[anúncio_1]

De acordo com fontes do Tech.co , enquanto a controvérsia sobre a demissão do CEO Sam Altman e seu posterior retorno à OpenAI acontecia, um dos rumores era sobre uma carta enviada pelos pesquisadores da empresa ao conselho de administração, expressando preocupações sobre o modelo de superinteligência de IA que estava sendo desenvolvido e que poderia representar uma ameaça à humanidade.

(Ilustração)

(Ilustração)

Projeto Q*

O modelo, conhecido internamente como Projeto Q* (pronuncia-se Q-star), representa um grande avanço na busca da OpenAI por inteligência artificial geral (AGI) — um ramo altamente autônomo da superinteligência capaz de aprendizado cumulativo e de superar humanos na maioria das tarefas.

Q* pode marcar um grande salto à frente na inteligência artificial ao melhorar radicalmente as capacidades de raciocínio da IA ​​e aproximar a OpenAI de um grande avanço no desenvolvimento da AGI, de acordo com pessoas familiarizadas com o assunto.

Ao contrário dos modelos atuais de IA, que se concentram na capacidade de gerar respostas com base em informações aprendidas anteriormente, a AGI é um sistema autônomo que pode aplicar “razão” às decisões, dando-lhe capacidades de resolução de problemas de nível humano.

Embora a AGI ainda não esteja totalmente desenvolvida, muitos especialistas acreditam que a tecnologia também terá a capacidade de aprender cumulativamente, outra característica que dá aos humanos a capacidade de melhorar suas habilidades.

Algumas fontes afirmam que o projeto Q* da OpenAI conseguiu demonstrar as propriedades acima na resolução de problemas. Além disso, graças ao enorme poder computacional do modelo, o Q* superou alunos do ensino fundamental, demonstrando habilidades de raciocínio e cognitivas significativamente superiores às capacidades da tecnologia de IA atual.

Não está claro há quanto tempo o Q* está em desenvolvimento e quais podem ser suas aplicações, mas a OpenAI informou os funcionários e membros do conselho sobre o projeto antes do escândalo de pessoal estourar.

Preocupações éticas

Embora o CEO da OpenAI, Sam Altman, esteja confiante de que a tecnologia AGI impulsionará a inovação, alguns pesquisadores foram rápidos em apontar os potenciais perigos do projeto.

Em uma carta ao conselho, os pesquisadores alertaram sobre os potenciais perigos desse poderoso algoritmo para a humanidade. As preocupações éticas específicas sobre IA descritas na carta não foram divulgadas, mas os alertas foram suficientes para justificar a decisão do conselho de demitir Altman.

Enquanto isso, o motivo inicial alegado para a demissão de Altman foi que o CEO "se comunicava mal". Ele logo conseguiu um novo cargo na Microsoft. Essa ação levou 700 dos 770 funcionários da OpenAI a ameaçarem fazer o mesmo caso o CEO não fosse reintegrado.

Com a empresa em perigo de colapso, o conselho da OpenAI foi forçado a reintegrar Altman ao cargo mais alto — o que também levou a uma grande reformulação da equipe executiva da empresa e destacou profundas divisões dentro de sua liderança.

Agora que Altman está de volta ao cargo e o Projeto Q* provavelmente receberá sinal verde novamente, novas questões surgem.

Quão realista é o Projeto Q*?

Embora os dias tumultuados na OpenAI tenham trazido o conceito de AGI à tona, esta não é a primeira vez que Altman menciona a tecnologia.

O empreendedor do Vale do Silício se viu em maus lençóis em setembro após comparar a IA a "um ser humano comum que você contrataria como colega de trabalho". Ele deu continuidade aos comentários que fez no ano passado sobre como a IA poderia "fazer tudo o que você faria com um colega de trabalho remoto", incluindo aprender a ser médico e um bom programador.

Embora comparar a IAG à inteligência de um "ser humano médio" não seja nenhuma novidade, o uso da frase por Altman foi considerado "abominável" pelo especialista em ética da IA ​​e professor da Universidade de Cambridge, Henry Shevlin, à medida que aumentam as preocupações em torno do impacto da IA ​​na segurança do emprego.

Possíveis avanços na AGI também estão acendendo o alarme para outros pesquisadores — que a tecnologia está sendo desenvolvida mais rápido do que os humanos conseguem compreender completamente seu impacto.

A OpenAI acredita que os resultados positivos da IAGI fazem com que valha a pena perseguir o arriscado "campo minado". Mas, à medida que a empresa avança nessa direção, muitos temem que Altman esteja priorizando o sucesso comercial em detrimento dos interesses dos usuários e da sociedade.

Phuong Anh (Fonte: Tech.co, The Guardian)



Fonte

Comentário (0)

No data
No data

No mesmo tópico

Na mesma categoria

Quão moderno é o submarino Kilo 636?
PANORAMA: Desfile e marcha da A80 em ângulos especiais ao vivo na manhã de 2 de setembro
Hanói se ilumina com fogos de artifício para celebrar o Dia Nacional, 2 de setembro
Quão moderno é o helicóptero antissubmarino Ka-28 participando do desfile marítimo?

Do mesmo autor

Herança

Figura

Negócios

No videos available

Notícias

Sistema político

Local

Produto