Все самое интересное о жизни стран-соседей России
Обновлено: 24.07.2024
Наука, технологии, бизнес
12 минут чтения

Чем так опасен искусственный интеллект…

…и пора ли нам начинать бояться?






















































































































































































Чем так опасен искусственный интеллект…
Фото: Фото: Duncan Rawlinson / flickr.com

Автор: Виктор Зайковский


СОДЕРЖАНИЕ СТАТЬИ:

Лишимся ли мы способности думать самостоятельно?

Может ли ИИ написать музыку?

Искусственный интеллект как способ похищения паролей

Станет ли ИИ другом, который всегда на нашей стороне?


Искусственный интеллект становится все умнее, это очевидно. А люди задаются вопросом: будет ли ИИ представлять экзистенциальную угрозу, если он станет по-настоящему разумным?

А может, истинная угроза для человечества заключается не в том, что ИИ станет разумными, а в том, что он этого не сделает?


Лишимся ли мы способности думать самостоятельно?

Фото: Nordiske Mediedager / flickr.com

Выход ChatGPT от OpenAI вызвал шквал комментариев в СМИ и научных кругах о возможностях и рисках искусственного интеллекта. По сути, ChatGPT представляет собой мощную версию большой языковой модели, известной как GPT (Generative Pre-trained Transformer), — тип модели машинного обучения, которая извлекает закономерности из огромного массива обучающих данных, в основном из Интернета, для создания новых композиций данных, например фрагментов текста, с использованием тех же закономерностей. Руководители компаний, политики и видные исследователи в области ИИ сегодня публично бьют тревогу по поводу того, что такие инструменты, как GPT, могут представлять экзистенциальную угрозу для человечества. Некоторые утверждают: GPT может стать первой искрой искусственного интеллекта общего назначения, или AGI, — достижения, которое, согласно прогнозам, приведет к появлению разумных, сознательных машин с высочайшим интеллектом, которые обрекут нас на невостребованность. Но если послушать более трезвомыслящих специалистов в области ИИ, нет никаких научных оснований для утверждения, что большие языковые модели наделены или когда-либо будут наделены субъективным опытом — той «внутренней жизнью», о которой мы говорим, когда речь идет о людях или о других разумных существах, например, собаках, слонах и осьминогах.

Значит ли это, что об ИИ не стоит беспокоиться? Некоторые лидеры в области ИИ, например профессор Янн ЛеКун, делают именно такой вывод. По его мнению, современные ИИ вряд ли приведут к появлению AGI, поэтому они не представляют серьезной угрозы для человечества. Но есть и другая точка зрения, согласно которой ИИ без способности мыслить более опасен, чем ИИ с такой способностью.

Какую же угрозу может представлять ИИ, не обладающий разумом и способностью мыслить? Задаваясь этим вопросом, мы забываем, что самозванец может быть опаснее конкурента. ИИ не угрожает выживанию человечества, по крайней мере по причинам, связанным с разумностью машин. Но вымирание не единственный риск. Другая опасность — потеря способностей, которые делают наш способ существования достойным выбора и сохранения. Поклонники приложений для написания текстов с искусственным интеллектом в качестве преимущества называют возможность отдать самую важную часть повествования — придумывание сюжета — боту. Люди выстраиваются в очередь, чтобы поблагодарить новаторов, показывающих нам, как обучить ChatGPT писать так, как писали бы мы сами, чтобы освободить нас от необходимости формировать и формулировать свои мысли.

Сейчас компании заменяют сценаристов, художников, юристов и преподавателей — людей, десятилетиями создававших свои таланты, — машинами, которые производят продукцию, достаточно качественную, чтобы выдать ее за труды нашего мышления. Замена вызывает беспокойство, но гораздо большее беспокойство вызывает все более распространенный аргумент, что мышление — это работа, от которой мы должны быть счастливы избавиться. Такое будущее — рай для авторитарной власти. Самоуправление — не просто способность, а желание и воля создавать свои собственные истории — враг неподотчетной власти. Насильственно подавить человеческую самостоятельность гораздо сложнее, чем убедить людей в том, что сокровища, которыми они владеют, ничего не стоят. Вопрос в том, какую систему моральных, интеллектуальных и политических ценностей будет поддерживать экономическая мощь, стоящая за современным ИИ: такую, где мышление имеет значение? Или ту, где оно не имеет значения?

Разговоры об экзистенциальной опасности AGI — не более чем попытка отвлечь нас от того, что происходит прямо на наших глазах: не механическое восстание, а тихая кампания по обесцениванию гуманного мышления. Впрочем, так можно углубиться и в конспирологические теории. Делать этого мы, конечно, не будем.


Может ли ИИ написать музыку?

Картины, созданные искусственным интеллектом, мы уже видели. Но что насчет музыки? Существует мнение, что искусственный интеллект, способный создавать музыку, будет означать конец свободы воли, но другие считают иначе. Особенно те, кто собрался в симфоническом зале El Cantoral в Мехико в 2019 году на латиноамериканскую премьеру «Неоконченной симфонии Шуберта, законченной искусственным интеллектом». Перед смертью в 1828 году Франц Шуберт написал половину частей, необходимых для симфонии, а затем забросил работу. Спустя более 190 лет симфонию удалось закончить, используя мелодии, сгенерированные искусственным интеллектом.

Все было довольно просто. ИИ обучили, используя мелодии Шуберта, и поставили перед ним задачу сгенерировать новые мелодии, которые звучали бы так же, как в обучающих данных. Затем их соединили с некоторыми оригинальными идеями, и оркестр воплотил результат в жизнь в мексиканском симфоническом зале. Когда оркестр закончил оригинальное произведение Шуберта и начал музыку, которую написал ИИ, энергия публики сменилась с изумления на возмущение и страх. Казалось, они боялись, что искусственный интеллект сможет создавать эмоциональную симфоническую музыку. Их можно понять: ИИ, создающий эмоциональную музыку, может повлиять на эмоциональную жизнь тысяч или даже миллионов людей небольшим, но глубоким образом; точно так же, как это делает человек-музыкант.

К финалу симфонии настроение слушателей сменилось с возмущения на удивление. Положительно и отрицательно люди отреагировали на симфонический дебют AI. Основная причина — хотя большинство людей и не верит в то, что ИИ может создать нечто приятное, им, по крайней мере частично, понравилась «Неоконченная симфония».

Наслаждение в музыке подразумевает, что в ней есть что-то, с чем слушатели связаны, что вызывает у них общие с автором эмоции. Но в случае с музыкой ИИ — эмоции, разделяемые с кем? Сам ИИ пока не имеет эмоций. Так что же означает музыка, созданная без эмоционального композитора? Неудовлетворительный ответ таков: у музыки нет объективного смысла. Композитор может решить, как звучит музыкальное произведение, но что оно означает, решает слушатель.

Но если задуматься, смысл, который мы придаем музыке, зависит от ее контекста — от того, как это произведение связано с другими элементами нашей жизни. Без контекста музыка похожа на результат игры, правила которой были утеряны. Независимо от того, как она создана, музыка не существует для слушателя в вакууме.

По мере своего развития музыка ИИ будет создавать свой собственный контекст, и в этом контексте она может быть такой же эмоциональной, как и любой другой стиль музыки. Безусловно, она будет отличаться от музыки, созданной человеком. В ней будут смешиваться существующие жанры и создаваться новые; в ней будут сочетаться инструменты, которые нам и в голову не придет сочетать. Возможно, кому-то она даже понравится больше, чем музыка, созданная человеком.

И если ИИ действительно способен хоть немного манипулировать нашими эмоциями, он может делать это настолько тонко, что заставит нас поверить в то, что любые идеи принадлежат нам. Все вышерассмотренное можно отнести скорее к философским проблемам, связанным с ИИ, однако существуют и более реальные угрозы.


Искусственный интеллект как способ похищения паролей

Фото: unsplash.com

В ходе одного из исследований был обнаружен способ использования машинного обучения для понимания того, что именно вы набираете на клавиатуре, включая пароли и секретную информацию. Все труды по созданию надежных паролей, смешиванию имен домашних животных с цифрами, символами и датами рождения скоро могут оказаться напрасными, поскольку новая модель искусственного интеллекта позволяет с точностью до 95 % понимать нажатия клавиш. Теоретически это может позволить хакерам, имеющим доступ к ноутбуку или находящемуся рядом устройству, получить расшифровку набираемых сообщений, паролей и другой конфиденциальной информации.

Как же это делается технически? Первым шагом для реализации атаки является запись нажатий человеком клавиш на клавиатуре, это необходимо для обучения алгоритма. Это можно сделать с помощью микрофона ноутбука, но можно и поместить микрофон, например, смартфона, рядом с компьютером.

Нажимая 36 клавиш современного MacBook Pro по 25 раз и записывая издаваемые звуки, исследователи получили полный набор обучающих данных. Эта информация преобразуется в волновые формы, позволяющие выявить различия в звучании клавишей. Имея такую информацию, исследователи смогли построить модель машинного обучения, позволяющую понять, какая из этих волновых форм соответствует той или иной клавише.

Но есть и определенные ограничения. Чтобы такой трюк работал с максимальной эффективностью, необходима хорошая выборка данных, поэтому все зависит от того, используете ли вы Dell, MacBook или внешнюю клавиатуру. Кроме того, меняются факторы, да и сами по себе люди могут действовать громче и жестче в зависимости от настроения. В общем, создание точного набора данных на основе конкретного стиля набора текста на конкретной клавиатуре может быть затруднено, существует дополнительная проблема, связанная с получением хорошей записи процесса набора текста.

Если компьютер или смартфон взломан и используется в качестве микрофона, хакеру необходимо получить четкие данные, чтобы использовать модель. Если на заднем плане присутствует шум, например, музыка или разговор в чате, сделать это становится сложнее. Модель также может быть использована, если вместо взлома ноутбука кто-то другой поместит рядом с ним записывающее устройство. Однако и здесь возникает та же проблема. Даже если данные получены точно, при использовании такой модели придется просеивать их без контекста. Хотя могут быть очевидные подсказки, например адрес электронной почты, за которым следует что-то похожее на пароль, не всегда будет понятно, к чему это относится.

Есть проблемы и в тестируемом программном обеспечении, например, оно не способно заметить клавишу shift — кнопку, используемую в основном для написания заглавных букв или использования символов. Хотя вероятность использования технологии через микрофон вашего взломанного ноутбука меньше, все же существует риск появления оппортунистов в таких местах, как кофейни или общественный транспорт, где люди работают, но эти ситуации также более сложны, чем та, что была в исследовании.

А вот аналогичный способ получения пин-кодов от карт, получаемых на одной и той же клавиатуре одного и того же банкомата, может сработать с большей эффективностью. Здесь сразу же устраняется вариативность и сильно снижается влияние внешних факторов, а это значит, что модель ИИ можно натренировать быстрее и точнее.


Станет ли ИИ другом, который всегда на нашей стороне?

Фото: flickr.com

Давайте зайдем издалека: должен ли ИИ быть лучшим другом? У него было бы много преимуществ: он доступен в любое время (даже в два часа ночи) и никогда не надоедает (в отличие от ваших друзей-людей, которые могут устать выслушивать одни и те же жалобы на работу или партнера). Или все не так однозначно?

Одна из причин относиться к ИИ-компаньонам с подозрением заключается в том, что вы не знаете их мотивов — или, точнее, мотивов тех, кто ими управляет. Они могут быть запрограммированы на тайную поддержку того или иного политического кандидата, продажу гаджетов или сеяние раздора. И если большинству из нас трудно длительное время сохранять невозмутимое выражение лица и мы испытываем (и непроизвольно выдаем) чувство вины и дискомфорта, причиняя боль или предавая другого, то машина, не обладающая разумом, не имеет таких проблем.

Машины также становятся более убедительными, чем большинство людей. Недавнее исследование показало, что аргументы в пользу вакцинации, созданные ChatGPT, оказались более эффективными, чем аргументы, используемые государственными учреждениями, — эту способность можно легко перенаправить на отстаивание более гнусных позиций.

Машинный текст оттачивается в ходе бесчисленных взаимодействий. Этот процесс можно наблюдать по частым изменениям заголовков в Интернете: во времена печатных газет у авторов заголовков был один шанс написать фразу, привлекающую внимание; сегодня большинство изданий постоянно корректируют свои тексты в Интернете, наблюдая за реакцией тысяч читателей на различные варианты, и если новый вариант дает лучшие результаты, то он переходит в новую версию.

Точно так же все аспекты искусственных друзей-ботов могут быть отточены и усовершенствованы в зависимости от эффективности их взаимодействия с различными пользователями.

Но как насчет искусственных друзей, которые создаются как настоящие компаньоны, а не тайные продавцы или разрушители под прикрытием? Могут ли они стать решением проблемы одиночества? Дружба полезна: исследования показали, что люди, ведущие активную и насыщенную социальную жизнь, живут дольше, здоровее и счастливее. Может быть, искусственные друзья — это социальный эквивалент витаминных таблеток, полезные добавки, когда идеальная сбалансированная диета (или живой круг замечательных друзей) недоступны?

В данном случае речь идет об уме — или отсутствии ума — другого человека. Подумайте о повседневном опыте: вы видите то, что могло бы позабавить вашего друга, и делаете мысленную заметку — рассказать ему об этом. Почему вы это делаете? Может быть, у него плохое настроение и вы хотите развеселить. А может быть, надеетесь поразить своим взглядом на причудливые или красивые вещи. Общество держится на заботе о том, что чувствуют другие. Эмпатия является частью этого: мы можем почувствовать радость или печаль, которую испытывает тот, кто нам дорог. Важно также, что нам небезразлично, что думают о нас другие. Такие эмоции, как стыд или смущение, могут причинить вред, если они используются жестко или принудительно, но они также необходимы для поддержания работоспособности нашего общества — мы «поступаем правильно» и сотрудничаем, по крайней мере частично, потому что нам небезразлично, как нас воспринимают другие.

И то, что другие думают о нас хорошо или просто наслаждаются нашим обществом и дорожат нашей дружбой, может быть очень полезным. Главное, чтобы эти другие были сознательными существами, способными формировать впечатления и испытывать эмоции. Искусственное существо может быть сконструировано таким образом, чтобы имитировать внешние признаки эмоций (улыбаться, вздыхать или плакать), но на самом деле оно ничего не чувствует, у него нет сознания.

Значит ли это, что следует избегать общения с искусственными интеллектами? Не обязательно. При правильном проектировании они могут принести много пользы. Они могут помочь человеку обдумать сложную ситуацию, отработать социальные навыки и обеспечить глубокую обратную связь. Но они могут делать все это без сознания и эмоций. Живые, сознательные друзья могут быть непредсказуемыми и требовательными. Но даже взаимодействуя со все более совершенными ИИ, мы должны принять сложности действительно двусторонних отношений, заботиться о переживаниях других людей и быть отзывчивыми к ним.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Подписывайтесь, скучно не будет!
Популярные материалы
Лучшие материалы за неделю