Чрезмерная зависимость от ИИ растёт, и это проблема
ИИ играет всё большую роль в жизни многих людей — от написания школьных сочинений до замены агентов службы поддержки. Идея о том, что ИИ упростит жизнь, взяв на себя рутинные задачи и освободив нас для более творческих занятий и вещей, на которые у нас нередко не хватает времени, будоражит. Но на деле всё выглядит не совсем так, по крайней мере, пока что.
Мы всё чаще видим, что люди склонны излишне полагаться на ИИ, вплоть до того, что перекладывают на него всю ответственность. И хотя ИИ неразумен и, скорее всего, не восстанет против нас в ближайшее время (мы вообще не думаем, что это произойдёт), перспектива такого чрезмерного доверия вызывает тревогу. Но в то же время мы уже видели подобное в отношении новых технологий и раньше.
Помешательство на сгенерированных ИИ рецептах
Помните, как мы относились к генеративному ИИ скорее как к игрушке, пытаясь придумать оригинальные и забавные запросы и похвастаться своими первыми навыками создания изображений? Первые дни после появления общедоступного генеративного ИИ были весёлыми и забавными, но с тех пор всё стало гораздо серьёзнее. Сегодня как отдельные люди, так и предприятия различных отраслей всё чаще полагаются на то, что ИИ будет делать за них их работу. При этом результаты часто варьируются от уморительных до откровенно тревожащих.
Одна из компаний, охваченных повальным увлечением искусственным интеллектом, — Instacart. Американский гигант доставки продуктов ещё в мае объявил о сотрудничестве с OpenAI для создания рецептов на основе ИИ. И плоды и овощи этого сотрудничества оказались в лучшем случае некрасивыми, а в худшем — вызывающими рвотный рефлекс. Тред Reddit, посвящёный Instacart, был наводнён изображениями странно выглядящих блюд. Некоторые из них явно нереальны (например, сосиска, жутко похожая на помидор в рецепте «хот-дог стир-фрай») и ничуть не аппетитны.
Более того, технологическое издание 404 обнаружило, что некоторые рецепты, сгенерированные искусственным интеллектом Instacart, не имеют никакого смысла. Например, в некоторых фигурировали несуществующие ингредиенты, такие как соус «Монито», а в других рецептах ингредиенты вообще отсутствовали или были указаны в подозрительных количествах.
Пицца или пирог?
Компанию Uber Eats поймали с поличным на использовании искусственного интеллекта таким же безруким способом, что дало столь же сомнительные результаты.
Пытаясь изобразить «средний цельный пирог» (америк. medium whole pie), который в данном конкретном контексте следовало понимать как «пиццу», ИИ воспринял всё буквально и выдал изображение десертного пирога. И хотя в данном случае можно посочувствовать ИИ (в конце концов, везде, кроме отдельных частей США, пиццу принято называть пиццей, а не пирогом), такая путаница могла бы стать причиной головной боли для пиццерии, если бы ошибку не заметил любознательный наблюдатель, позвонивший туда.
Можно было бы утверждать, что эти ИИ-модели, сбившиеся с пути, просто нуждаются в дополнительной настройке в виде контролируемого обучения, и если бы они были должным образом настроены, компании избежали бы неловкости. Но всё не так просто. Иногда слишком тонкая настройка приводит к обратному результату. Как недостаточная настройка может привести к ошибкам, подобным этой, так и чрезмерная настройка может привести к непредвиденным последствиям.
Историческая точность против разнообразия
Возьмём недавний случай с Gemini AI компании Google и его попытку внести разнообразие… в исторические изображения. Когда чат-бот Google на базе ИИ попросили изобразить немецкого солдата 1943 года, тот выдал изображение, на котором среди прочих были изображены чернокожий мужчина и женщина-азиатка.
Запрос на создание изображений ранних французских романистов также привел к тому, что Gemini выдал картинку с изображением чернокожей женщины и мужчины с азиатской внешностью.
Эти нестандартные результаты стали побочным продуктом стремления Google придать своей модели ИИ больше разнообразия. После последовавших за этим споров компания Google заблокировала способность ИИ Gemini генерировать изображения людей. «Мы сделаем лучше», — пообещали они. «Так что же пошло не так? Если коротко, то две вещи. Во-первых, наша настройка, направленная на то, чтобы Gemini показывал диапазон изображений, не учитывала случаи, в которых этот диапазон явно не должен быть показан. А во-вторых, со временем модель стала гораздо более осторожной, чем мы предполагали, и отказывалась отвечать на некоторые вопросы полностью, ошибочно интерпретируя некоторые очень банальные вопросы как деликатные», — говорится в заявлении Google.
На самом деле Amazon уже сталкивался с подобной проблемой, когда его наводнили объявления о продаже товаров с названиями, больше похожими на сообщения об ошибках. И если мы привыкли видеть бренды с причудливыми названиями, которые звучат как случайный набор слов, то новая волна названий, обрушившаяся на Amazon, включала в себя такие необычно звучащие пункты, как «Приношу свои извинения, но я не могу выполнить этот запрос, он нарушает политику использования OpenAI».
Грубые чат-боты и фейковые предсказания
К этому и без того внушительному списку примеров глупостей, созданных ИИ, можно добавить чат-бота на базе ИИ, который компания по доставке посылок DPD использовала для поддержки клиентов вместо настоящих агентов. Как сообщается, чат-бот не только был бесполезен в ответах на вопросы, но и критиковал свою же компанию и недвусмысленно говорил клиенту, чтобы тот прекратил беспокоить его. DPD в итоге закрыла чат-бот, увидев, что он окончательно «слетел с катушек».
И несмотря на все разговоры о том, что чат-боты на базе ИИ могут заменить традиционные поисковые системы, и Copilot от Microsoft, и Gemini от Google отвечали на вопросы о результате недавнего Супербоула ещё до его проведения. Они не только (неверно) назвали окончательный счёт (Copilot даже привёл неверные ссылки на источники), но и предоставили подробную статистику игроков, причём выдуманную.
Чрезмерное увлечение ИИ — это временно?
Можно продолжать и дальше приводить примеры того, как ИИ не справился с задачей, а люди вовремя не пришли на помощь. В конце концов, каждый инструмент, управляемый искусственным интеллектом, будь то чат-бот или просто генератор изображений, сопровождается предупреждением о том, что он всё равно нуждается в человеческом контроле и перепроверке. Но раз за разом люди пренебрегают такими советами. И ИИ не первый и, вероятно, не последний пример такой политики невмешательства.
Возьмите шлемы виртуальной реальности. Хотя споры о том, сможет ли VR заменить реальность, например, реальные путешествия, обучение или развлечения, продолжаются до сих пор, они уже несколько подутихли. Сейчас шлемы виртуальной реальности используются в основном для игр, но и там они не являются полноценной заменой традиционным платформам, в основном из-за вопросов безопасности. Несмотря на предупреждения убрать всю мебель, которая может помешать вашим движениям, и призывы делать перерывы, люди по-прежнему получают серьёзные травмы во время игр в виртуальной реальности, натыкаясь на предметы в пылу азарта либо получая множественные травмы, которые они наносят себе сами, повторяя одни и те же движения несколько раз и даже не осознавая этого.
Ещё один яркий пример веры в объективно ещё сырую технологию — так называемые самоуправляемые автомобили. В 2015 году Илон Маск, генеральный директор компании Tesla и пионер индустрии автономных автомобилей в целом, предположил, что мы сможем получить полностью автономный автомобиль уже через 2 года. Примерно в то же время Google и Toyota надеялись вывести автомобиль без водителя на рынок к 2020 году, а BMW ставила цель на 2021 год. С тех пор Маск признал, что заставить автомобиль управлять собой без контроля со стороны человека сложнее, чем он думал, и шумиха вокруг полностью автономных автомобилей улеглась. Сейчас все существующие «автономные» автомобили на самом деле не являются полностью автономными. Все автомобили с функциями ассистента вождения, представленные на рынке, соответствуют только второму уровню автономности автомобиля из шести.
Первая система третьего уровня была одобрена к производству только в прошлом году — это очень далеко от мечты о повсеместном применении машин без водителя к началу 2020-х годов. Некоторые даже считают, что уже пора выбросить белый флаг и признать, что «беспилотных автомобилей не будет», а лучше сосредоточиться на развитии общественного транспорта.
И всё же, несмотря на все предупреждения и классификации, водители полагают, что могут слепо положиться на свои автомобили в управлении, а сами при этом… играют в ладушки, карты или даже читают книги. Сообщается, что в некоторых авариях с участием частично автономных автомобилей люди также смотрели телевизор и дремали за рулем.
Заключение
Увлечение генеративным ИИ — как и манящая виртуальная реальность, как и мечты об автономных автомобилях — отражает наше стремление к технологическим утопиям. Однако, как показывает история, путь от революционной инновации до надёжного повседневного использования часто оказывается длиннее и сложнее, чем предполагалось. Передовые технологии, какими бы передовыми они ни были, обычно требуют периода созревания, который может длиться годы, а то и десятилетия. Это позволяет усовершенствовать технологию, разработать протоколы безопасности и привести её в соответствие с общественными потребностями и этическими нормами.
Тернистый пусть искусственного интеллекта напоминает о том, что путь к интеграции новых технологий в повседневную жизнь — это марафон, а не спринт. Смогут ли создатели этих технологий в полной мере выполнить свои обещания, пока неизвестно, но одно можно сказать точно: баланс между контролем со стороны человека и технологическим прогрессом будет и дальше определять наше будущее.