Международный форум этики в сфере искусственного интеллекта

Материал из Циклопедии
Перейти к навигации Перейти к поиску
Международный форум этики в сфере искусственного интеллекта
Файл:2023-11-16 12-27-11.png
СтатусАктивен
ОтрасльТехнологии
Место проведенияПресс-центр ТАСС
Город/областьМосква Москва
СтранаРоссийская Федерация Россия
Дата последнего проведения16 ноября 2023 года
Посещаемость3300 человек
Веб-сайтaiethic.ru

Международный форум этики в сфере искусственного интеллекта «Поколение GPT. Красные ЛинИИ» (2023), прошёл 16 ноября 2023 года в информационном агентстве «ТАСС» при поддержке Администрации Президента России, Министерства экономического развития, а также комиссии по этике в сфере искусственного интеллекта (ИИ)[1].

Участники форума — российские и зарубежные компании, разрабатывающие и использующие технологии искусственного интеллекта, коммерческие банки, федеральные и региональные органы исполнительной власти, профильные ассоциации и объединения, представители Русской Православной Церкви, Духовного собрания мусульман России, Буддийской традиционной Сангхи России[2].

Проведению форма предшествовали общественные дискуссии в 12 регионах страны, в которых приняли участие несколько тысяч человек.

История форума[править]

Первый форум прошёл в 2021 году, на нём был представлен российский Кодекс этики в сфере искусственного интеллекта — документ рекомендательного характера, вводящий этические принципы и стандарты для разработчиков ИИ, а также компаний, использующих его технологии. Кодекс был подготовлен Альянсом в сфере искусственного интеллекта, Аналитическим центром при Правительстве РФ и Минэкомразвития[3]. Его основные положения:

  • прозрачность в разработке технологий искусственного интеллекта;
  • информирование об успехах и неуспехах, а также возможных рисках;
  • главный приоритет развития технологий искусственного интеллекта — защита интересов людей;
  • ответственность за применение технологий искусственного интеллекта всегда лежит на человеке;
  • интересы развития технологий искусственного интеллекта выше интересов конкуренции;
  • технологии развития и этика искусственного интеллекта находятся вне границ.

На первом форуме этики в 2021 году к Кодексу присоединились МФТИ, Сбербанк, «Яндекс», МТС, «Ростелеком», РФПИ, «Газпром нефть»[4].

В 2022 году круг тех, кто придерживается положений документа, расширился за счёт компаний, участвовавших в конференции «Цифровая индустрия промышленной России» в Нижнем Новгороде (присоединились 19 организаций), форума «Технопром 2022» в Новосибирске (14 организаций, в том числе Министерство цифрового развития Новосибирской области), ВЭФ-2022 (14 организаций Дальнего Востока), международной конференции AI Journey (12 организаций).

Присоединение организаций к Кодексу этики в сфере искусственного интеллекта (2023)

В 2023 году к российскому Кодексу в ходе форума этики присоединились ещё 20 организаций, среди которых были ведущие отечественные вузы, компании, крупные госучреждения[5]. Установленные Кодексом нормы соблюдают уже 270 организаций[6].

Важность расширении числа компаний, придерживающихся положений Кодекса, подчеркнул Президент России Владимир Путин в своём обращении к участникам форма «Этика искусственного интеллекта. Поколение GPT. Красные ЛинИИ»:

В ходе обсуждения тенденций и задач технологического развития вы традиционно делаете акцент на его важнейшей этической стороне. Эта тема является главной, определяющей с вашего первого форума, где был принят Кодекс этики в сфере искусственного интеллекта. Рассчитываю, что именно с этой точки зрения будет идти плодотворный обмен мнениями относительно реализации Национальной стратегии развития искусственного интеллекта в России до 2030 года[7].

Проблемы этики искусственного интеллекта[править]

В рамках форума прошли дискуссии на темы:

  • «Курс развития этики искусственного интеллекта в России»;
  • «Межкультурный взгляд на глобальные вызовы развития искусственного интеллекта»;
  • «Применение этических принципов в работе исследовательских центров в сфере искусственного интеллекта: в чем ответственность учёных за будущее»;
  • «Как взращивать новое поколение „этичных разработчиков“ в эпоху социального неравенства»;
  • «Нужен ли „пояс верности“ для искусственного интеллекта»;
  • «Чёрное зеркало: влияние искусственного интеллекта на развитие современного общества» (прошло в закрытом режиме)[8].

В ходе дискуссий обсуждались основные дилеммы при развитии и использовании технологий искусственного интеллекта.

Доверять или контролировать[править]

Главной угрозой в сфере применения технологий искусственного интеллекта эксперты форума единодушно назвали «безусловное доверие» со стороны общества к новым технологиям и стремление переложить ответственность за принятие решения на искусственный интеллект. Как сформулировал модератор дискуссии «Применение этических принципов в работе исследовательских центров в сфере искусственного интеллекта», директор Национального центра развития искусственного интеллекта (НЦРИИ) при Правительстве РФ Сергей Наквасин:

Со временем мы начинаем всё чаще принимать сторону искусственного интеллекта неосознанно, на автомате. При этом критический анализ ответа ИИ, поиск аргументов его неправоты в каждом таком случае требуют сил и времени. В итоге общество постепенно идёт к тому, что пользователь изначально возлагает ответственность за решение на ИИ, лишь формально подтверждая его нажатием кнопки. Препятствовать этому можно только сохранением критического восприятия при использовании подобных сервисов[9].

«Красная кнопка» для ИИ[править]

Сергей Наквасин — директор Национального центра развития искусственного интеллекта при Правительстве РФ

Сергей Наквасин заявил, что по своей потенциальной опасности технологии искусственного интеллекта превосходят ядерное оружие и подчеркнул, поэтому этические нормы для ИИ должны предусматривать некую «красную кнопку» для отключения всей системы:

В случае, если в подобной системе, управляющей критической инфраструктурой или АЭС, например, этот механизм не будет работать, то искусственный интеллект может превратиться из системы поддержки принятия решения в систему принятия решения. Это будет не обезьяна, которой дали гранату, а обезьяна, которую взбесили и она побежала сначала к гранатам, а потом к пушкам[10].

Помимо этого, считает эксперт, необходим аналог МАГАТЭ (Международное агентство по атомной энергии) для контроля над такими технологиями[11].

«Цифровое бессмертие» и традиции[править]

В ходе дискуссии «Межкультурный взгляд на глобальные вызовы развития искусственного интеллекта» глава Духовного собрания мусульман России, муфтий Альбир Крганов высказал опасение, что такое явление как «цифровое бессмертие», перенос не только памяти человека в облако данных, но и сознания в компьютер меняет «понимание смерти как окончания жизни», а также «ценностные представления о цифровой и реальной жизни»:

Альбир Крганов — глава Духовного собрания мусульман России, муфтий (2023)

В свете исламских учений мы должны уделить особое внимание сохранению личной идентичности, поддержке семей, чтобы не нарушать традиционные ценности, связанные с прощанием и воспоминанием. Необходимо разработать эффективные механизмы контроля и управления информацией после смерти[12].

Директор по развитию технологий искусственного интеллекта компании «Яндекс» Александр Крайнов на сей счёт успокоил, заявив, что до появления полноценных цифровых копий человека ещё дожить надо:

Александр Крайнов — директор по развитию технологий искусственного интеллекта «Яндекса» (2023)

…я не доживу до того момента, когда это произойдёт. То есть в ближайшие лет 50 я не вижу, чтобы такая возможность была…Но если возможность появится, мы увидим за несколько лет до. Пока до того горизонта, где мы видим, такого нет[13].

Глава синодального отдела Московского патриархата по взаимоотношениям Церкви с обществом и СМИ Владимир Легойда высказал сомнения в полноценности и конкурентоспособности вообще какого бы то ни было «цифрового» разума, что сейчас, что потом, поскольку искусственный интеллект лишь отчасти имитирует человеческий, однако не способен к творчеству, не сможет удивить:

Я думаю, цифровой Пушкин это не Пушкин…Для человеческой культуры чрезвычайно важна такая категория, как удивление или изумление. Это то, что для искусственного интеллекта закрыто сейчас и, наверное, будет закрыто всегда[14].

Инициативы по вопросам развития ИИ[править]

По итогам форума сформирован перечень инициатив развития этики искусственного интеллекта — для включения в Национальную стратегию развития искусственного интеллекта до 2030 года, а также в обновлённый Кодекс этики.

Официальный представитель МИД РФ Мария Захарова заявила на форуме, что Россия всегда готова к сотрудничеству с другими странами в сфере искусственного интеллекта:

Официальный представитель МИД РФ Мария Захарова на форуме этики в сфере искусственного интеллекта (2023)

Мы абсолютно открыты к совместной работе и не политизируем её, не исходим из какой-то политической догмы, которая уже выработана, утверждена, зацементирована, абсолютно не так. Здесь есть желание продемонстрировать лучшие наши достижения в этой сфере и презентовать их, продвигать на международных площадках с точки зрения подходов уважения международного права[15].

Посланник генерального секретаря ООН по вопросам технологий Амандип Сингх Гилл сообщил на форуме, что в сентябре 2024 года будет создан специальный орган по этическому кодексу в сфере искусственного интеллекта. Это необходимо, чтобы «избегать злоупотреблений искусственным интеллектом и пробелов в национальных законодательствах»[16].

Разное[править]

К 2024 году, по прогнозам Альянса в сфере ИИ, к российскому Кодексу этики в сфере искусственного интеллекта присоединятся не менее пятисот организаций[17].

В 2023 году прирост внедрения технологий ИИ в России, согласно опросу, проведённому среди пяти тысяч компаний, составил 25 % по сравнению с 2021 годом[18].

С 2013 года в рамках проекта NaNoGenMo (National Novel Generation Month — Национальный месяц генерирования романов), публикуются сочинения, написанные искусственным интеллектом. Так, опубликованы новые версии «Алисы в Стране чудес», «Моби Дика», отрывков «Улисса». Пользователи отметили их абсурдность[19].

Книга Сергея Шумского «Воспитание машин. Новая история разума» (2021)

Глава синодального отдела Московского патриархата по взаимодействию со СМИ Владимир Легойда заявил на форуме, что никакой искусственный интеллект не дотянется до уровня Пушкина[20].

Впрочем, самому искусственному интеллекту и впрямь не стоит браться за перо, ведь он сам уже полноценный герой не одного романа. К примеру, книги «Воспитание машин. Новая история разума» Сергея Шумского, учёного, популяризатора науки. Автор полагает, что человечеству придётся крепко постараться, чтобы искусственный интеллект преследовал именно наши интересы, а не чьи-либо другие.

Источники[править]

  1. Форум этики в сфере искусственного интеллекта: поколение GPT. Красные линИИ (2023-11-16). Проверено 18 ноября 2023.
  2. В.Р. Легойда принял участие в круглом столе, посвященном глобальным вызовам развития искусственного интеллекта (2023-11-16). Проверено 16 ноября 2023.
  3. Кодекс этики в сфере искусственного интеллекта. Проверено 16 ноября 2023.
  4. Цифровой Пушкин и этика. Эксперты заглянули в будущее искусственного интеллекта (2023-11-16). Проверено 17 ноября 2023.
  5. Росимущество – участник Форума этики в сфере искусственного интеллекта «Поколение GPT. Красные линИИ» (2023-11-16). Проверено 16 ноября 2023.
  6. К кодексу этики в сфере ИИ присоединилось порядка 20 организаций (2023-11-16). Проверено 16 ноября 2023.
  7. Участникам и гостям форума «Этика искусственного интеллекта: поколение GPT. Красные ЛинИИ» (2023-11-16). Проверено 16 ноября 2023.
  8. Программа мероприятия. Проверено 18 ноября 2023.
  9. Глава Национального центра развития ИИ: основная угроза — слепое доверие к технологиям (2023-11-17). Проверено 18 ноября 2023.
  10. Эксперт считает, что ИИ в будущем может представлять большую угрозу, чем ядерное оружие (2023-11-17). Проверено 18 ноября 2023.
  11. Глава Национального центра развития ИИ: основная угроза — слепое доверие к технологиям (2023-11-16). Проверено 18 ноября 2023.
  12. Муфтий заявил, что цифровое бессмертие может привести к дискредитации системы ценностей (2023-11-16). Проверено 18 ноября 2023.
  13. "Яндекс" заявил о невозможности человечества создать свои цифровые копии в течение 50 лет (2023-11-16). Проверено 18 ноября 2023.
  14. Легойда: цифровая копия Пушкина никогда не сможет удивить творчеством (2023-11-16). Проверено 18 ноября 2023.
  15. Захарова заявила, что РФ открыта к совместной работе в области искусственного интеллекта (2023-11-16). Проверено 17 ноября 2023.
  16. Посланник генсека ООН допустил создание органа по кодексу этики ИИ на Саммите будущего (2023-11-16). Проверено 17 ноября 2023.
  17. Внедрение. Проверено 18 ноября 2023.
  18. Глава Национального центра развития ИИ: основная угроза — слепое доверие к технологиям (2023-11-17). Проверено 16 ноября 2023.
  19. "Обеденная депрессия" и "В дороге" на Cadillac: какие романы пишут нейросети (2021-02-20). Проверено 17 ноября 2023.
  20. Легойда: цифровая копия Пушкина никогда не сможет удивить творчеством (2023-11-16). Проверено 18 ноября 2023.
Ruwiki logo.png Одним из источников этой статьи является статья в википроекте «Рувики» («Багопедия», «ruwiki.ru») под названием «Международный форум этики в сфере искусственного интеллекта», находящаяся по адресу:

«https://ru.ruwiki.ru/wiki/Международный_форум_этики_в_сфере_искусственного_интеллекта»

Материал указанной статьи полностью или частично использован в Циклопедии по лицензии CC-BY-SA 4.0 и более поздних версий.
Всем участникам Рувики предлагается прочитать материал «Почему Циклопедия?»