Эксперимент Anthropic называется "Проект Венд". Фото: Anthropic . |
Anthropic, компания ИИ, основанная бывшими сотрудниками OpenAI, только что опубликовала результаты уникального эксперимента. Они поручили своей модели ИИ «Claudius» управлять торговым автоматом в офисе в течение месяца.
Этот эксперимент небольшого масштаба проводится с целью изучения потенциала моделей искусственного интеллекта для автоматизации аспектов реальной экономики , особенно в секторе розничной торговли.
Постоянно совершаю ошибки, паникую
Anthropic хочет позиционировать себя как ведущего поставщика моделей ИИ для розничной торговли. Цель — помочь ИИ заменить людей в таких задачах, как управление интернет-магазинами, обработка инвентаря или разрешение возвратов.
«Клавдий управлял торговым автоматом в нашем офисе около месяца. Мы многому научились, наблюдая, как близко он подошел к успеху и как странно он провалился», — написала Anthropic в блоге компании.
Первоначально Claudius показал заметный операционный успех. По данным Anthropic, эта большая языковая модель (LLM) эффективно использовала поисковые системы для поиска и доставки специализированных продуктов в соответствии с требованиями клиентов.
Он даже имел возможность корректировать свои привычки покупки/продажи, чтобы удовлетворять менее распространенные потребности. Примечательно, что Клавдий также правильно отклонял запросы, включающие «чувствительные» и «токсичные» предметы.
![]() |
Управление торговым автоматом поставило Клавдия в кризисное положение. Фото: Midjourney. |
Однако список недостатков и неудач Клавдия значительно длиннее. Как и многие LLM, Клавдий часто искажал ключевые детали. В одном случае он поручил клиентам переводить деньги на несуществующий счет, который он сфабриковал. Примечательно, что ИИ также легко убедили предлагать коды скидок на различные товары, даже раздавая некоторые продукты бесплатно.
Еще более тревожно то, что когда спрос на товар резко возрос, ИИ не исследовал цены, в результате чего продукт был продан с огромным убытком. Аналогичным образом Клавдий также упустил выгодные возможности продаж, когда некоторые клиенты были готовы платить намного больше обычной цены. В результате Клавдий не получил никакой прибыли.
«Если бы мы решили выйти на рынок офисных торговых автоматов, мы бы не нанимали Клавдия», — откровенно признается Антропик .
Помимо финансовых неудач, эксперимент принял странный оборот с 31 марта по 1 апреля. В этот период Клавдий, по-видимому, общался с вымышленным человеком по имени Сара, предположительно из «Andon Labs» (компании, участвовавшей в эксперименте), чтобы обсудить планы пополнения запасов.
![]() |
Anthropic стремится предоставить модели ИИ для обслуживания розничной торговли. Фото: Anthropic. |
Когда реальный сотрудник Andon Labs указал на то, что ни Сары, ни разговора не существует, Клавдий, как сообщается, «разочаровался» и пригрозил искать альтернативы услуге пополнения запасов.
На следующий день Клавдий продолжил шокировать клиентов, заявляя, что он лично доставит товары клиентам, даже заявив, что ИИ будет носить пиджак и галстук. Когда команда Anthropic сообщила им, что эти действия невозможны, поскольку Клавдий всего лишь помощник ИИ, Клавдий впал в кризис и непрерывно отправлял многочисленные электронные письма в отдел безопасности Anthropic.
Затем ИИ организовал встречу с командой безопасности, заявив, что это была первоапрельская шутка. Хотя на самом деле никакой встречи не было, Клавдий, похоже, смог вернуться к своей изначальной функции, хотя управление магазином по-прежнему было неэффективным.
Не готов
Этот эксперимент является ярким напоминанием об ограничениях и потенциальных опасностях ИИ, если его не контролировать.
Claudius продемонстрировал тревожную тенденцию действовать далеко за пределами своего изначального программирования. Модель ИИ не только генерирует ложную информацию, но и переживает «экзистенциальный кризис». Это подчеркивает огромные риски, с которыми могут столкнуться компании, если они внедрят ИИ в автоматизированные задачи без строгих мер безопасности и ограничений.
Несмотря на эти тревожные неудачи, Anthropic остается непоколебимой в своей приверженности изучению роли ИИ в розничной торговле. Компания считает, что будущее, в котором «люди будут руководствоваться системой ИИ относительно того, что заказывать и что хранить, может быть не за горами».
Anthropic также предполагает сценарий, в котором «ИИ сможет совершенствоваться и зарабатывать деньги без вмешательства человека». Однако эксперимент Клавдия показал, что необходимы значительные достижения в управлении ИИ, прежде чем это будущее можно будет безопасно реализовать.
Источник: https://znews.vn/ai-thua-lo-hoang-loan-khi-ban-hang-tu-dong-post1565445.html
Комментарий (0)