По данным источников Tech.co , пока продолжались споры об увольнении генерального директора Сэма Альтмана и его последующем возвращении в OpenAI, одним из слухов было письмо, отправленное исследователями компании совету директоров, в котором выражалась обеспокоенность по поводу разрабатываемой модели сверхразума на основе ИИ, которая может представлять потенциальную угрозу человечеству.
(Иллюстрация)
Проект Q*
Модель, известная внутри компании как Project Q* (произносится как «Кью-стар»), как утверждается, представляет собой крупный прорыв в стремлении OpenAI к созданию общего искусственного интеллекта (AGI) — высокоавтономной ветви сверхинтеллекта, способной к кумулятивному обучению и превосходящей людей в большинстве задач.
По словам людей, знакомых с этим вопросом, Q* может стать серьезным шагом вперед в развитии искусственного интеллекта, радикально улучшив возможности рассуждений ИИ и приблизив OpenAI к крупному прорыву в разработке AGI.
В отличие от существующих моделей ИИ, которые фокусируются на способности генерировать ответы на основе ранее изученной информации, ИИОН представляет собой автономную систему, которая может применять «разум» к решениям, что дает ей возможности решения проблем на человеческом уровне.
Хотя ИИ еще не полностью реализован, многие эксперты полагают, что эта технология также будет обладать способностью к кумулятивному обучению — еще одной чертой, которая дает людям возможность улучшать свои способности.
Некоторые источники утверждают, что проект Q* - OpenAI смог продемонстрировать вышеуказанные свойства при решении задач. Мало того, благодаря огромной вычислительной мощности модели, Q* смог превзойти учеников начальной школы, продемонстрировав навыки рассуждения и когнитивные способности, значительно превосходящие возможности современной технологии ИИ.
Неясно, как долго Q* находится в разработке и каковы могут быть его сферы применения, но OpenAI проинформировала сотрудников и членов совета директоров о проекте еще до того, как разразился кадровый скандал.
Этические проблемы
Хотя генеральный директор OpenAI Сэм Альтман уверен, что технология AGI будет способствовать инновациям, некоторые исследователи поспешили указать на потенциальные опасности проекта.
В письме совету исследователи предупредили о потенциальных опасностях этого мощного алгоритма для человечества. Конкретные этические опасения по поводу ИИ, изложенные в письме, не были раскрыты, но предупреждений было достаточно, чтобы оправдать решение совета уволить Альтмана.
Между тем, первоначальной причиной увольнения Альтмана было то, что генеральный директор «плохо общался». Вскоре он нашел новую должность в Microsoft. Это действие побудило 700 из 770 сотрудников OpenAI пригрозить сделать то же самое, если генеральный директор не будет восстановлен.
Поскольку компания оказалась на грани краха, совет директоров OpenAI был вынужден восстановить Альтмана на руководящей должности, что также привело к серьезной перестройке руководящего состава компании и выявило глубокие разногласия в ее руководстве.
Теперь, когда Альтман вернулся в офис и проект Q*, скорее всего, снова получит зеленый свет, возникают новые вопросы.
Насколько реалистичен проект Q*?
Хотя бурные дни в OpenAI привлекли внимание к концепции AGI, это не первый раз, когда Альтман упоминает эту технологию.
Предприниматель из Кремниевой долины оказался в затруднительном положении в сентябре, сравнив ИИ с «среднестатистическим человеком, которого вы могли бы нанять в качестве коллеги». Он продолжил свои комментарии, сделанные в прошлом году о том, что ИИ может «делать все, что вы можете делать с удаленным коллегой», в том числе научиться быть врачом и хорошим программистом.
Хотя сравнение ИИ с интеллектом «среднего человека» не является чем-то новым, использование Альтманом этой фразы было сочтено «отвратительным» специалистом по этике ИИ и профессором Кембриджского университета Генри Шевлином, поскольку обеспокоенность по поводу влияния ИИ на безопасность труда растет.
Потенциальные прорывы в области ОИИ также вызывают тревогу у других исследователей: технология развивается быстрее, чем люди успевают полностью осознать ее влияние.
OpenAI считает, что положительные результаты AGI делают рискованное «минное поле» стоящим того, чтобы его изучать. Но поскольку компания продолжает двигаться в этом направлении, многие беспокоятся, что Альтман ставит коммерческий успех выше интересов пользователей и общества.
Фуонг Ань (Источник: Tech.co, The Guardian)
Источник
Комментарий (0)