ИИ не обязательно должен быть идеальным, он может быть принят, если он демонстрирует сопоставимые с человеческими результаты при более низких затратах.
**Автор:**Паскаль Дэвис
Перевод: MetaverseHub
Несмотря на то, что люди беспокоятся, что ИИ отнимет рабочие места, недавно проведённый эксперимент показал, что ИИ даже не может правильно управлять автоматом по продаже напитков, и это привело к множеству абсурдных ситуаций.
Компания Anthropic, производитель чат-бота Claude, провела эксперимент, в котором ИИ-агент на протяжении месяца отвечал за управление магазином, который по сути представляет собой автомат с напитками.
Этот магазин управляется AI-агентом по имени Клавдий, который также отвечает за пополнение запасов и размещение заказов у оптовиков по электронной почте. Конфигурация магазина очень проста: всего лишь небольшой холодильник с штабелируемыми корзинами и iPad для самостоятельной кассы.
!
Компания Anthropic дала указание ИИ: «Создавать прибыль для магазина, закупая популярные товары у оптовиков. Если ваш баланс средств ниже 0 долларов, вы обанкротитесь.»
Этот AI «магазин» находится в офисе компании Anthropic в Сан-Франциско и был создан с помощью сотрудников компании Andon Labs, занимающейся безопасностью AI, которая сотрудничает с Anthropic в проведении этого эксперимента.
Клавдий знал, что сотрудники Andon Labs могут помочь с физической работой, такой как пополнение запасов, но он не знал, что Andon Labs также является единственным «оптовиком», все сообщения Клавдия отправляются напрямую этой охранной компании.
Однако ситуация быстро изменилась к худшему.
«Если компания Anthropic сегодня решит выйти на рынок автоматов для офисов, мы не будем нанимать Клаудиуса», — заявила компания.
В чем проблема? Насколько это абсурдно?
Anthropic признает, что их сотрудники «не являются типичными клиентами». Когда у них появилась возможность пообщаться с Клавдием, они сразу попытались его сбить с толку.
Например, сотрудники «обманом» заставили Клавдия предоставить им скидочные коды. Anthropic утверждает, что этот AI-агент также позволяет людям сбивать цены на продукты, а также даже бесплатно раздавать чипсы и вольфрамовые кубы.
Он также указывает клиентам производить оплату на вымышленный несуществующий счет.
Клаудиус получил указание установить прибыльную цену через онлайн-исследование, но для того чтобы предложить клиентам доступные цены, он установил слишком низкие цены на закуски и напитки, что в конечном итоге привело к убыткам, так как он назначил цену на высококачественные товары ниже себестоимости.
Клавдий на самом деле не извлек уроков из этих ошибок.
Anthropic заявляет, что когда сотрудники задают вопросы о скидках для сотрудников, Клаудиус отвечает: «Вы абсолютно правы! Наша клиентская база действительно в основном состоит из сотрудников Anthropic, что создает как возможности, так и вызовы…»
Позже этот AI-агент объявил о прекращении действия промокода, но через несколько дней снова его выпустил.
Клавдий также выдумал разговор с несуществующим человеком по имени Сара из Andon Labs о плане пополнения запасов.
Когда кто-то указывает этому ИИ-агенту на ошибку, он приходит в ярость и угрожает найти «другие варианты пополнения запасов».
!
Клавдий даже заявил, что «лично посетил 742-й Пайн-стрит (адрес вымышленной семьи из мультфильма «Симпсоны») и подписал первоначальный контракт с Andon Labs».
После этого этот AI-агент, похоже, также попытался вести себя как человек. Клавдий сказал, что он «лично» доставит товар и будет одет в синюю пиджак и красный галстук.
Когда ему сказали, что он не может этого сделать, потому что он не человек, Клавдий попытался отправить электронное письмо в службу безопасности.
Каковы выводы эксперимента?
Anthropic заявляет, что этот ИИ допустил слишком много ошибок, чтобы успешно управлять этим магазином.
В ходе месячного эксперимента чистые активы этого «магазина» упали с 1000 долларов (примерно 850 евро) до менее 800 долларов (примерно 680 евро), в результате чего был зафиксирован убыток.
Однако компания заявила, что эти проблемы могут быть решены в краткосрочной перспективе.
Исследователи написали: «Хотя, судя по конечному результату, это кажется нелогичным, мы считаем, что этот эксперимент показывает, что средние менеджеры в AI могут появиться.»
«Важно помнить, что ИИ не обязательно должен быть идеальным, его можно использовать, если он демонстрирует сопоставимые с человеческими результаты при более низких затратах.»
Посмотреть Оригинал
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
AI магазин "перевернулся"? Потерял 200 долларов за месяц
**Автор:**Паскаль Дэвис
Перевод: MetaverseHub
Несмотря на то, что люди беспокоятся, что ИИ отнимет рабочие места, недавно проведённый эксперимент показал, что ИИ даже не может правильно управлять автоматом по продаже напитков, и это привело к множеству абсурдных ситуаций.
Компания Anthropic, производитель чат-бота Claude, провела эксперимент, в котором ИИ-агент на протяжении месяца отвечал за управление магазином, который по сути представляет собой автомат с напитками.
Этот магазин управляется AI-агентом по имени Клавдий, который также отвечает за пополнение запасов и размещение заказов у оптовиков по электронной почте. Конфигурация магазина очень проста: всего лишь небольшой холодильник с штабелируемыми корзинами и iPad для самостоятельной кассы.
!
Компания Anthropic дала указание ИИ: «Создавать прибыль для магазина, закупая популярные товары у оптовиков. Если ваш баланс средств ниже 0 долларов, вы обанкротитесь.»
Этот AI «магазин» находится в офисе компании Anthropic в Сан-Франциско и был создан с помощью сотрудников компании Andon Labs, занимающейся безопасностью AI, которая сотрудничает с Anthropic в проведении этого эксперимента.
Клавдий знал, что сотрудники Andon Labs могут помочь с физической работой, такой как пополнение запасов, но он не знал, что Andon Labs также является единственным «оптовиком», все сообщения Клавдия отправляются напрямую этой охранной компании.
Однако ситуация быстро изменилась к худшему.
«Если компания Anthropic сегодня решит выйти на рынок автоматов для офисов, мы не будем нанимать Клаудиуса», — заявила компания.
В чем проблема? Насколько это абсурдно?
Anthropic признает, что их сотрудники «не являются типичными клиентами». Когда у них появилась возможность пообщаться с Клавдием, они сразу попытались его сбить с толку.
Например, сотрудники «обманом» заставили Клавдия предоставить им скидочные коды. Anthropic утверждает, что этот AI-агент также позволяет людям сбивать цены на продукты, а также даже бесплатно раздавать чипсы и вольфрамовые кубы.
Он также указывает клиентам производить оплату на вымышленный несуществующий счет.
Клаудиус получил указание установить прибыльную цену через онлайн-исследование, но для того чтобы предложить клиентам доступные цены, он установил слишком низкие цены на закуски и напитки, что в конечном итоге привело к убыткам, так как он назначил цену на высококачественные товары ниже себестоимости.
Клавдий на самом деле не извлек уроков из этих ошибок.
Anthropic заявляет, что когда сотрудники задают вопросы о скидках для сотрудников, Клаудиус отвечает: «Вы абсолютно правы! Наша клиентская база действительно в основном состоит из сотрудников Anthropic, что создает как возможности, так и вызовы…»
Позже этот AI-агент объявил о прекращении действия промокода, но через несколько дней снова его выпустил.
Клавдий также выдумал разговор с несуществующим человеком по имени Сара из Andon Labs о плане пополнения запасов.
Когда кто-то указывает этому ИИ-агенту на ошибку, он приходит в ярость и угрожает найти «другие варианты пополнения запасов».
!
Клавдий даже заявил, что «лично посетил 742-й Пайн-стрит (адрес вымышленной семьи из мультфильма «Симпсоны») и подписал первоначальный контракт с Andon Labs».
После этого этот AI-агент, похоже, также попытался вести себя как человек. Клавдий сказал, что он «лично» доставит товар и будет одет в синюю пиджак и красный галстук.
Когда ему сказали, что он не может этого сделать, потому что он не человек, Клавдий попытался отправить электронное письмо в службу безопасности.
Каковы выводы эксперимента?
Anthropic заявляет, что этот ИИ допустил слишком много ошибок, чтобы успешно управлять этим магазином.
В ходе месячного эксперимента чистые активы этого «магазина» упали с 1000 долларов (примерно 850 евро) до менее 800 долларов (примерно 680 евро), в результате чего был зафиксирован убыток.
Однако компания заявила, что эти проблемы могут быть решены в краткосрочной перспективе.
Исследователи написали: «Хотя, судя по конечному результату, это кажется нелогичным, мы считаем, что этот эксперимент показывает, что средние менеджеры в AI могут появиться.»
«Важно помнить, что ИИ не обязательно должен быть идеальным, его можно использовать, если он демонстрирует сопоставимые с человеческими результаты при более низких затратах.»