Отравление данных
Перейти к навигации
Перейти к поиску
Отравление данных (англ. data poisoning) — нарушение работы алгоритмов машинного обучения искусственного интеллекта с помощью добавления вредоносных данных. Разновидность атаки злоумышленников, представляющая угрозу кибербезопасности.
Во время обучения модели ИИ в обучающий набор данных вводится дополнительная вредоносная информация. В результате происходит искажение последующих результатов её работы, снижается достоверность генерируемых данных. Подобные атаки позволяют манипулировать результатами моделей, повышать предвзятость их ответов.
Методы отравления данных:
- Инъекция данных (англ. Data injection) — добавление злоумышленниками вредоносных данных в обучающий набор;
- Атаки инсайдеров (англ. Insider attacks) — добавление в обучающий набор вредоносных данных сотрудниками компании, имеющими доступ к работе системы;
- Инъекция триггеров (англ. Trigger injection) — добавление в обучающий набор специальных данных («триггеров»), позволяющее незаметно обходить защиту, изменяя результаты генерации с помощью активации в нужный момент ключевой фразой;
- Атаки на цепочку поставок (англ. Supply-chain attacks) — воздействие на сторонние компоненты, используемые ИИ-моделью;
Ссылки[править]
- София Труцуненко Что такое отравление данных и чем оно грозит — РБК, 26.04.2024
- Отравление данных в ИИ: возможные угрозы, их обнаружение и профилактика — SecurityLab.ru, 5 февраля, 2025
↑ | |||||||||||||
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
| Концепции |
| ||||||||||||
| Модели |
| ||||||||||||
| Компании | |||||||||||||
| Это заготовка статьи. Вы можете помочь проекту, исправив и дополнив её. |