ИИ-фобия

Материал из Циклопедии
Перейти к навигации Перейти к поиску

ИИ-фобия (англ. AI Phobia), ИИ-боязнь, также ИИ-тревожность (англ. AI-Anxiety, сокр. англ. AI-nxiety) — страх людей перед искусственным интеллектом. Представляет собой тревожное расстройство[1], одну из разновидностей цифровых фобий, в свою очередь относящихся к технофобиям.

Страх перед внедрением ИИ[править]

Начиная с 2020-х годов по мере распространения в мире систем, основанных на машинном обучении, в обществе происходит рост опасений, связанных с последствиями их применения. Одним из факторов недоверия к данной технологии является отсутствие знаний и недостаточная информированность большинства граждан о том, как она работает и каков её внутренний механизм, т. е. как искусственный интеллект осуществляет процесс обработки данных.[2] Активное внедрение ИИ в различных областях человеческой деятельности породило ряд значимых социальных проблем, вызвав у людей страх перед будущим и боязнь неизвестности. Ряд специалистов в области IT выступили с предупреждениями о том, что внедрение ИИ несёт глобальную угрозу, может привести к депопуляции и даже гибели человечества. Среди них экс-сотрудник Google Джеффри Хинтон, основатель Мила-Квебекского института ИИ Джошуа Бенджио[3], британский физик Стивен Хокинг, известный предприниматель Илон Маск[4].

Большинство публикаций в СМИ, связанных с темой ИИ, носит негативную эмоциональную окраску, в них применение искусственного интеллекта связывается с опасностью, страхом и тревогой. Это подтвердили исследования Ратгерского университета.[5] На фоне тревожных настроений среди конспирологически настроенных граждан глобальное внедрение нейросетей и искуственного интеллекта стали связывать с теориями заговора мирового правительства и пророчествами о конце света. Некоторые люди начали испытывать опасения, что ИИ может выйти из под контроля и захватить человечество.[4]

Социальные опасения[править]

Опасность ошибок[править]

С внедрением цифрового интеллекта возникла угроза перекладывания процесса принятия решений с человеческого разума на машинный. Несовершенство нейросетевых моделей и допускаемые ими ошибочные ответы, используемые людьми в ответственных сферах, таких как медицина, транспорт и т. п., вызвали опасения в негативных последствиях и возможности различных катастроф.[6][4] Одним из примеров является опасность появления на дорогах беспилотных автомобилей, управляемых автоматически без участия человека.[7] Использование обучающимися сгенерированных нейросетью ответов на экзаменах ведёт к падению уровня образования, что несёт угрозу прихода подобных специалистов в ответственные сферы производства и управления.

Политическая угроза[править]

С развитием генеративных нейросетей появились созданные с их помощью дипфейки, всё труднее отличимые от настоящих фото- и видеоматериалов, которые начали распространяться в интернете и СМИ. В связи с этим среди общественности возникли опасения в подрыве демократического устройства общества под влиянием использования ИИ в качестве инструмента дезинформации и манипулирования общественным мнением.[6]

Страх увольнения[править]

Внедрение нейросетей крупными компаниями привело к конкуренции машин с людьми и их заменой ИИ. Это стало сопровождаться массовыми увольнениями сотрудников, связанных с рядом профессий в сфере IT (программистов, цифровых художников, оффисных работников и т. п.). Всё это стало вызывать среди граждан, занятых на рынке труда, стрессы и тревогу по поводу возможного снижения зарплаты, страх потерять работу и лишиться куска хлеба, привело к опасениям массовой безработицы и даже вымирания отдельных профессий.[6]

Вырождение людей[править]

Среди специалистов существуют опасения, что привычка постоянно использовать искусственный интеллект может вызвать деградацию естественного разума людей, ослабление у них критического мышления[8] и потерю способности думать самостоятельно, что в дальнейшей перспективе способно привести к утрате эволюционной конкурентоспособности и последующему биологическому вырождению человечества.[4]

См. также[править]

Источники[править]

Философия
Направления
Применение
Исследователи
Организации
Связанное

Категория Искусственный интеллект

 
Концепции
Модели
Компании

Категория  · Шаблон