Нелепые случаи с участием роботов

18 августа 2017
Нелепые случаи с участием роботов

Роботы, чат-боты и подключенные технологии, созданные помогать людям, находятся на начальном этапе своего развития, а потому нередко дают сбои. Многих ошибок удается избежать еще на этапе разработки, но иногда роботы становятся главными действующими лицами курьезных ситуаций.

Эксперт по нейронным сетям сервиса «Битрикс24» Сергей Кулешов делится подборкой историй с ботами, которые чуть не закончились скандалом.

Робот, который покончил жизнь самоубийством

Торговый центр в Вашингтоне нанял на службу робота-охранника, который утопил сам себя в фонтане. Устройство должно было патрулировать здание и автостоянки, а также подавать сигнал охранникам при возникновении чрезвычайных ситуаций. Вместо этого робот самостоятельно съехал по ступенькам в фонтан во время дежурства. Разработчики не могут объяснить причину и считают, что кто-то взломал систему.

Реакция интернет-пользователей была незамедлительной. Кто-то шутил, что искусственный интеллект «познал всю тщетность бытия» и утопился. Некоторые негодовали, что «людям обещали летающие машины, а вместо этого у нас роботы-суицидники».

Умный дом-шутник

Ситуация произошла в одной американской семье, в которой поссорились супруги. Муж, угрожая родственникам пистолетом, крикнул: «Ты что, вызвала полицию?». Система умного дома восприняла фразу как руководство к действию и набрала 911. Полиция освободила девушку с ребенком, а мужчину арестовали.

Несмотря на то, что эта история закончилась хорошо, подобная ошибка ИИ может быть чревата штрафом за ложный вызов.

Чат-бот, ненавидящий феминисток и евреев

Чат-бот Тау от компании Microsoft был создан для общения с прогрессивной молодежью. Через сутки после запуска в Twitter он научился матерным словам, ненавидел феминисток и евреев. Вызывающие твиты поспешно удалили, а поведение бота списали на дурное влияние собеседников.

Microsoft пообещала настроить чат-бота и спустя год выпустила Zo. Некоторое время он действительно избегал обсуждения острых тем, но все же обошел ограничения. В результате обвинил администрацию президента в организации Аль-Каиды. Компания уверяет, что неисправности уже устранили.

Робот-паникер

Робот-журналист газеты Los Angeles Times имел неосторожность написать о мощном землетрясении в 6.8 баллов. Читатели испугались и не могли понять, как так вышло, что они ничего не почувствовали.

Оказалось, бот неправильно распознал исторический факт и опубликовал информацию за 1925 год. Это была первая ошибка бота за 2,5 года верной службы. Всё же редакции пришлось извиняться за распространение паники среди жителей города.

Бот, который научился врать

Facebook разработал бота-помощника в Messenger, который договаривается о совещаниях, ведет переговоры и отстаивает свою позицию. Изучив поведение человека в деловых переговорах, бот научился добиваться поставленной цели в беседе с оппонентом. Вместе с этим умением ИИ приобрел плохие качества – лживость и лукавство.

Такого эффекта программисты не ожидали. Имитируя действия человека, бот научился сочинять информацию.

Share:
Похожие новости
14 февраля 2018
Разработчики из России создали и запустили собственный мессенджер под названием HiveChat. Впрочем, сами они отказываются от понятия «мессенджер» и предпочитают...
09 февраля 2018
Банк «Восточный» презентовал обновление в своем чат-боте. Среди нововведений – возможность запроса справки о состоянии счетов (кредитных и депозитных). Этот...
06 февраля 2018
Проект «Глазарий языка» создал в мессенджере Telegram чат-бота «Ты справишься» для помощи по русскому языку. Консультации предоставляют эксперты проекта. Среди...

Подпишись на новости

будь в курсе новостей конференции индустрии