Vietnam.vn - Nền tảng quảng bá Việt Nam

Độc lập - Tự do - Hạnh phúc

Noi detalii în scandalul personalului OpenAI

Báo Thanh niênBáo Thanh niên23/11/2023


Scrisoarea cu punctul de cotitură

Reuters a citat pe 23 noiembrie surse exclusive care au declarat că, cu patru zile înainte de demiterea CEO-ului Sam Altman, unii cercetători de la OpenAI au trimis o scrisoare consiliului de administrație al companiei, avertizând asupra unei descoperiri puternice în domeniul inteligenței artificiale (IA) care ar putea amenința omenirea. Scrisoarea nu mai fusese menționată niciodată înainte, iar algoritmul IA menționat mai sus a reprezentat o evoluție importantă înainte ca domnul Sam Altman, cofondatorul OpenAI, să fie concediat pe 17 noiembrie. Acesta a revenit în această funcție pe 21 noiembrie (ora SUA), după două negocieri cu OpenAI. Potrivit surselor, scrisoarea a fost unul dintre factorii care au condus la decizia de a concedia membrii consiliului de administrație al OpenAI, deși în anunțul oficial, compania a spus doar că domnul Altman „nu a fost consecvent și direct în comunicarea cu consiliul de administrație”.

Tình tiết mới vụ sóng gió nhân sự OpenAI - Ảnh 1.

Dl. Altman ( dreapta ) și liderii companiilor de tehnologie au discutat la conferința APEC din San Francisco (SUA) pe 16 noiembrie.

Mira Murati, una dintre directorii executivi de lungă durată ai OpenAI, a menționat angajaților pe 22 noiembrie un proiect numit Q* și a spus că consiliul de administrație al companiei a primit o scrisoare înainte ca Altman să fie concediat, potrivit surselor. Una dintre surse a declarat că OpenAI a făcut progrese în ceea ce privește Q*, ceea ce ar putea reprezenta un progres în căutarea superinteligenței, cunoscută și sub numele de inteligență artificială generală (AGI).

Deși modelul este capabil doar să rezolve probleme de matematică la nivel de școală elementară, rezolvarea unor astfel de probleme îi face pe cercetători optimiști în ceea ce privește succesul viitor al lui Q*. Cercetătorii consideră matematica ca o condiție prealabilă pentru dezvoltarea inteligenței artificiale generative. IA generativă poate în prezent să scrie și să traducă limbi străine, deși răspunsurile la aceleași întrebări pot fi foarte diferite. Însă stăpânirea matematicii, unde există un singur răspuns corect, implică faptul că inteligența artificială va fi capabilă să raționeze mai bine, la fel ca oamenii. Cercetătorii cred că acest lucru ar putea fi aplicat noilor cercetări științifice .

Sam Altman revine în funcția de CEO al OpenAI

Pericol potențial?

Într-o scrisoare adresată consiliului de administrație OpenAI, cercetătorii au subliniat puterea și pericolele potențiale ale inteligenței artificiale, potrivit surselor. Informaticienii au discutat mult timp despre pericolele reprezentate de mașinile superinteligente, cum ar fi dacă acestea ar putea decide să distrugă umanitatea în propriul beneficiu. În acest context, Altman a condus eforturile de a transforma ChatGPT într-una dintre aplicațiile software cu cea mai rapidă creștere din istorie și de a atrage investițiile și resursele de calcul necesare pentru a se apropia de inteligența artificială generală (AGI). Pe lângă anunțarea unei serii de instrumente noi la un eveniment din această lună, Altman le-a spus liderilor mondiali din San Francisco săptămâna trecută că el crede că AGI este la îndemână. O zi mai târziu, a fost concediat de consiliul de administrație OpenAI. OpenAI și Altman nu au răspuns imediat solicitărilor de comentarii cu privire la scrisoare.

Îngrijorate de riscurile potențiale reprezentate de inteligența artificială, multe guverne occidentale și companii de tehnologie au convenit asupra unui nou regim de testare a siguranței. Cu toate acestea, potrivit AFP, secretarul general al ONU, Antonio Guterres, a declarat că lumea încă „recuperează decalajul” în eforturile de reglementare a inteligenței artificiale, care riscă să aibă consecințe negative pe termen lung pentru tot, de la locuri de muncă la cultură.

OpenAI și Microsoft, date în judecată pentru drepturile de autor

Un grup de autori de non-ficțiune a intentat un proces împotriva OpenAI și Microsoft, acuzându-le că au antrenat un instrument numit ChatGPT să le copieze lucrările fără consimțământul lor, a relatat The Hill pe 23 noiembrie. În procesul intentat la un tribunal federal din New York, reclamantul principal, Julian Sancton, a declarat că el și alți autori nu au primit nicio compensație pentru lucrările copiate de AI, în timp ce OpenAI și Microsoft au obținut succes financiar din comercializarea operelor lor, câștigând venituri de miliarde de dolari din produse de inteligență artificială. Potrivit Reuters, un purtător de cuvânt al OpenAI a refuzat să comenteze procesul, în timp ce un reprezentant Microsoft nu a răspuns imediat la o solicitare de comentarii.



Legătură sursă

Comentariu (0)

No data
No data

Pe aceeași temă

În aceeași categorie

Y Ty este strălucitor cu culoarea aurie a sezonului de orez copt.
Strada veche Hang Ma „își schimbă hainele” pentru a întâmpina Festivalul de la Mijlocul Toamnei
Dealul purpuriu Suoi Bon înflorește printre marea plutitoare de nori din Son La
Turiștii se adună la Y Ty, cufundat în cele mai frumoase câmpuri terasate din nord-vest

De același autor

Patrimoniu

Figura

Afaceri

No videos available

Ştiri

Sistem politic

Local

Produs