Пять причин поехать с Drivee
28 ноября, 13:55
Комплекс по обращению с ТКО построят в Магаданской области почти за 6 млрд рублей — РЭО
14:37
Продлено ограничение движения по дороге "Магадан — Балаганное — Талон"
14:05
Маршалловы острова первыми в мире ввели безусловный базовый доход в 200 долларов
13:50
Завершен капремонт рентген-кабинета в  Синегорье
13:17
Сильный снег прогнозируют в Магадане 19 декабря
12:53
Рыбный бизнес просит послаблений, иначе ему придется выживать
12:45
В Магадане продлен конкурс на лучший эскизный проект въездного знака
12:43
Олеся Бачевская: Чтобы клиент чувствовал себя важным для банка
12:02
Очередное заседание Магаданской областной Думы назначено на 23 декабря
11:55
Магадан вошёл в рейтинг вежливых водителей и пассажиров сервиса для заказа такси
11:52
Магаданцам рассказали о мерах профилактики гриппа и ОРВИ
11:01
Ульяна Матвиенко: Мечта каждого экологиста – иметь свой дом
11:00
Колымчанин заплатит штраф в 2 миллиона рублей за незаконную рубку леса
10:42
В Магаданской области суд вынес приговор по делу об уничтожении лиственниц
10:37
В Центре поддержки семей мобилизованных готовят подарки для семей бойцов СВО
10:25

Как нейросети могут случайно развязать ядерную войну

ИИ-дезинформация стала новой ядерной угрозой
Ядерная война может начаться из-за фейков, создававемых нейросетями Photo by form PxHere
Ядерная война может начаться из-за фейков, создававемых нейросетями
Фото: Photo by form PxHere
Нашли опечатку?
Ctrl+Enter

Искусственный интеллект может спровоцировать ядерную войну — эксперты бьют тревогу.

Современные технологии искусственного интеллекта создают новую угрозу глобальной безопасности. Как пишет авторитетный журнал Nature, нейросети, способные генерировать фейковый контент, могут невольно подтолкнуть мир к ядерному конфликту.

Проблема в том, что ИИ легко создает и распространяет дезинформацию.  Это поддельные фото, видео и сообщения, которые могут спровоцировать политиков на необдуманные решения. 

Например, во время напряженности между Индией и Пакистаном в соцсетях уже появлялись сфабрикованные нейросетями изображения, усиливающие конфликт.

Еще опаснее — использование ИИ в военных системах. Генерал ВВС США Энтони Коттон предупреждает, что некоторые компании уже внедряют свои алгоритмы в системы национальной безопасности, хотя технологии пока несовершенны.

Главная опасность — так называемые "галлюцинации ИИ". При этом система выдает ошибочные данные или непредсказуемые результаты. 

Если такой сбой произойдет в системе, связанной с ядерным оружием, последствия могут быть катастрофическими.

Эксперты призывают с осторожностью подходить к интеграции ИИ в критически важные сферы. Пока технологии не стали достаточно надежными, их применение в военной области может принести больше рисков, чем преимуществ.

231617
32
13