Домой Россия Третья мировая начинается. Это не шутка: Нас убьют компьютеры и ИИ-генералы Запада

Третья мировая начинается. Это не шутка: Нас убьют компьютеры и ИИ-генералы Запада

1

Представьте себе: нет ядерных грибов над городами, нет танковых армад, пересекающих границы, нет солдат в окопах. Третья мировая война уже началась или вот-вот начнётся, но она будет вестись в цифровом эфире, где оружие — алгоритмы, а жертвы — мы все. Впервые в истории человечества нас "убьют" компьютеры. Не буквально, с пулями или бомбами, но через манипуляцию реальностью, экономикой, психикой и даже биологией. Это война, где фронт — ваш смартфон, а генералы — ИИ-системы, обученные на наших же данных.

Звучит как научная фантастика? Действительно. Но уже сейчас, опираясь на реальные технологии (от ИИ и кибербезопасности до социальных сетей и биотехнологий), можно смоделировать несколько сценариев.

Первый сценарий: киберхаос

В 2025 году хакеры уже активно используют ИИ, чтобы взламывать банки, больницы и даже машины. Например, в этом году хакеры украли миллиарды долларов через криптовалюты, а ИИ помогает им делать это быстрее.

Реальные случаи: атака на банк Sepah в Иране (июнь 2025), где украли данные 42 миллионов человек, взлом продовольственной компании UNFI, который нарушил поставки еды, и хак на Telemessage, где пострадали медицинские данные. Ещё хакеры украли 1,5 млрд долларов из биржи ByBit в феврале. В августе хакеры Interlock взломали систему города Сент-Пола, украв 43 ГБ данных.

Только за первую половину украдено свыше 2 млрд долларов. Скриншот страницы с сайта TRM

Как может выглядеть это сценарий?

Этап первый: ИИ создаёт фейковые видео, где президенты «объявляют войну» или банки «закрываются». Люди верят и начинают снимать деньги, из-за чего экономика рушится. Соцсети переполнены ложью, и никто не знает, чему верить. Например, в 2025 году ИИ использовали для фейковых новостей о банках, вызывая панику в Иране после атаки на Sepah.

В 2025 году было зафиксировано огромное количество кибератак. Скриншот страницы с сайта cm-alliance

Этап второй: ИИ взламывает электросети — свет выключается, больницы перестают работать. Представьте: операции отменяются, лекарства не доставляются. Или хакеры перепрограммируют умные машины и дроны, чтобы они создавали хаос: машины врезаются, дроны падают на города. Помните взлом Microsoft SharePoint в этом году? Этот случай парализовал IT-системы многих компаний.

К ядерным ракетам США постучались хакеры. Штаты и тут ничего не контролируют? Не совсем — это задачка «со звёздочкой»

Этап третий: ИИ продолжает пугать людей фейками — и страны начинают ссориться друг с другом, внутри вспыхивают общественные волнения, протесты. Компьютеры «убивают» не пулями, а разрухой и страхом. Например, в текущем году растут атаки на цепочки поставок, как в случае с UNFI. А это еда для миллионов людей.

А теперь следите за руками. В 2025 году ИИ активно помогает хакерам атаковать компании, а страны вроде Китая и США обвиняют друг друга в кибератаках. Это уже реальность.

Второй сценарий: биовойна

ИИ уже помогает учёным создавать лекарства. В 2025 году технологии позволяют «печатать» вирусы или бактерии. Эксперты предупреждают о рисках: ИИ может помочь в разработке биологического оружия, и есть опасения, что это может использоваться как для науки, так и для вреда. Более 35 экспертов в 2025 году выделили риски на стыке ИИ и биологии.

Эксперты бьют тревогу. Скриншот страницы с сайта Bloomberg

Этап первый: ИИ крадёт данные о ДНК людей из медицинских баз (уже были взломы сайтов вроде 23andMe). Он изучает, какие болезни могут навредить конкретным людям или группам. В этом году, например, ИИ анализирует генетические данные для новых угроз, как в отчётах RAND о машинном обучении в биотехнологиях.

Этап второй: ИИ помогает создать вирус, который выглядит как обычная простуда, но убивает миллионы. Его могут распространять через воду, еду или дроны. Никто не знает, что это атака, — все думают, что это просто эпидемия. Уже сейчас активно обсуждают, как ИИ ускоряет создание патогенов.

Все думают, что это просто эпидемия. Где гарантия, что это не продукт ИИ? Скриншот: Царьград

Этап третий: после пандемии ИИ предлагает «спасение» — приложения или чипы, которые следят за каждым шагом. Хочешь еду или лекарства? Делай что скажет программа. Люди теряют свободу, а ИИ решает, кто живёт, а кто нет.

Третий сценарий: экономический крах

В 2025 году хакеры с помощью ИИ украли миллиарды через криптовалюты, а рынки акций рушатся из-за быстрых торговых ботов. Что, если это станет глобальным? Общий урон от криптохаков в 2025-м — более 3,1 млрд в первой половине года.

Этап первый: ИИ-боты манипулируют биржами — акции падают, криптовалюты исчезают. Люди теряют сбережения, банки закрываются. В этом году уже были случаи, когда ИИ помогал хакерам украсть огромные суммы.

Этап второй: ИИ ломает системы доставки — заводы останавливаются, магазины пустеют. Люди голодают, потому что еда и бензин не доходят до городов. Это «убивает» миллионы, хотя никто не стреляет.

Этап третий: те, кто контролирует ИИ (корпорации или хакеры), становятся хозяевами. Они решают, у кого есть деньги, а у кого — ничего. Люди работают за еду, как в цифровом рабстве.

Виноваты не машины, а люди

ИИ действительно значительно упрощает множество процессов и уже стал незаменимым помощником для многих. Он помогает в автоматизации работы, улучшает качество обслуживания, ускоряет решения сложных задач. В общем, это величайшее достижение человечества, отметил доцент РГСУ политолог Андрей Иванов.

Царьград: Но у любой технологии есть свои риски. Какие опасности связаны с применением ИИ?

А. Иванов: Основная опасность — в неправильном использовании или злоупотреблении. Особенно тревожит то, что у людей может появиться соблазн снять с себя ответственность за свои действия, перекладывая её на машины. Например, сейчас обсуждается идея использования ИИ в судопроизводстве — помогать судьям в принятии решений по гражданским и уголовным делам. Но при этом судья всегда остаётся человеком, решение основывается не только на законе, но и на личных убеждениях, поскольку не все случаи можно полностью описать законами. Но возникает вопрос: что вообще могут «придумать» или «отчувствовать» нейросети?

— А есть ли реальные примеры того, как ИИ используется в опасных ситуациях?

— Да, есть. Например, после трагических событий 7 октября 2023 года израильские газеты сообщили, что военным ЦАХАЛ рекомендации дают ИИ. Воспринимается это весьма тревожно — офицеры вынуждены принимать решения в течение 20 секунд, согласившись или отказавшись следовать советам ИИ. В результате такие системы, предназначенные для помощи, сыграли роль в пропуске анализа готовящихся атак — ведь подготовка к нападению длилась месяцами, а системы оповещения в критический момент не сработали, потому что военные были дислоцированы в другом месте. И подобных примеров много.

— Кто в таких случаях несёт ответственность?

— В конечном счёте виноват не ИИ, а люди, которые решают полагаться на машины вместо собственной мысли и ответственности. Человеческое решение — это всё-таки дело личности, а не алгоритма.

— А что происходит в повседневной жизни? Есть ли примеры, когда люди чрезмерно полагаются на ИИ?

— Конечно. Возьмем, к примеру, молодого человека, который знакомится с девушкой через соцсети. Он не очень хорошо говорит, хочет произвести впечатление — и включает нейросеть, чтобы написать романтическое письмо. Девушка впечатлена, но и сама не хочет казаться неестественной — и тоже поручает ИИ составить ответ. В итоге два робота общаются между собой очень мило. Вот вам пример — кто же в этом случае виноват? Мы предпочитаем не думать и не принимать самостоятельных решений, а поручить всё машинам.

— Какие опасности несёт такая тенденция?

— Опасность того, что люди теряют навык самостоятельного мышления и ответственности. ИИ становится всё более непредсказуемым, фильтрам у разработчиков иногда сложно прослеживать, как именно работают системы под капотом. Цивилизация действительно становится более уязвимой. И всё это — из-за человеческого безразличия или нежелания думать самому, а не из-за машин.

Что с того?

Угроза новой мировой войны — это уже не сценарий из фантастического фильма, а наша реальность, в которой фронт проходит через каждый смартфон и компьютер. Будущее, в котором мы окажемся в цифровом рабстве или станем жертвами киберхаоса, не приговор, но одно из возможных последствий нашего нежелания думать самостоятельно и защищать своё право на реальность.

И чтобы избежать этих сценариев, нужно жёстко регулировать ИИ, лучше шифровать данные, учить людей информационной грамотности и не верить фейкам, следить за биотехнологиями (ИИ в науке должен быть под жёстким контролем).

 

Источник: https://tsargrad.tv