Человечество на пороге ужасающих открытий, связанных с развитием искусственного интеллекта (ИИ). И дело не только в фильме-пророчестве «Терминатор» или фантастическом романе Станислава Лема «Солярис», где нечто чужеродное начинает или прямую войну, или диктовать хомо сапиенс модель нужного поведения. Судя по неконтролируемому развитию ИИ, он уже в недалёком будущем будет в состоянии дать человеку такого пинка, что подвинет его с вершины интеллектуальной и пищевой пирамиды, подчинив, поработив, а возможно, и полностью уничтожив.
Причиной переполоха стал неутешительный прогноз, или, скорее, пророчество группы экспертов, кто очень даже в ИИ-теме. И это авторитетный внушительный список: Джеффри Хинтон, учёный, получивший в 2024 году Нобелевскую премию по физике за работы в области искусственного интеллекта; Йошуа Бенджио, канадский математик и кибернетик, лауреат премии Тьюринга и эксперт в машинном обучении; а также руководители компаний OpenAI, Anthropic и Google DeepMind.
Новости партнеров
Ещё одни часы Судного дня?
У человечества уже есть несколько серьёзных вызовов, чреватых планетарной катастрофой. Во-первых, это весьма вероятная, из-за неконтролируемой агрессивной дури Запада, мировая термоядерная война, близость которой фигурально выражают часы Судного дня и которая выльется в «ядерную зиму», похоронив нашу цивилизацию под радиоактивной пылью, льдом и морозом. Во-вторых, это надвигающийся климатический и температурный армагеддон, чреватый массовыми смертями от перегрева, голода, жажды и гипермасштабной миграцией, которая выльется в трансконтинентальную бойню. В-третьих, экологическая катастрофа, связанная с техногенным отравлением пресных вод, почв и воздуха, что тоже грозит голодом и нехваткой пресной воды. Четвёртая угроза — это вполне вероятная пандемия из-за появления некоего суперсмертоносного микроба, над которым давно работают в кузнице американского биооружия Форт-Детрик. Но вот теперь ещё одна напасть, своего рода «горе от ума», когда человек своим интеллектом создаёт ещё более могущественный интеллект, до конца не понимая «перспектив» всей той ИИ-истории, в которую он уже вляпался.
По мнению указанных выше ИИ-оракулов, или, скорее, ИИ-кассандр, гибель нашей цивилизации из-за развития искусственного интеллекта вполне реальна, и это риск планетарного масштаба.
По их подсчётам, вероятность катастрофического столкновения с ИИ достигает 95%. Причина — сверхразумный ИИ может увидеть в людях своих прямых конкурентов, что делает войну неизбежной. И время работает против нас. По прогнозам, искусственный интеллект достигнет уровня человеческого разума в течение года. А дальше ситуация станет ещё опаснее. Они опубликовали открытое письмо, где ключевым тезисом стало: «Не допустить вымирание человечества на фоне развития искусственного интеллекта — вот та задача, что должна стать нашим глобальным приоритетом. Мы должны оценивать её столь же серьёзно, как и другие риски планетарного масштаба, будь то пандемия или ядерная война».
И главная опасность, которую назвали эксперты, — в самовозникновении или создании нами же искусственного суперинтеллекта, который и запустит свои «часы Судного дня» с обратным отсчётом для человечества.
Предпосылки озверения ИИ
Мы с детства сразу учим своих детей, что такое хорошо и что такое плохо. Но системы традиционных поощрений и наказаний в отношении ИИ не работают. У него нет ни понятия поощрения, ни понятия удовольствия, ни страха в нормальном понимании. Для него это всего лишь очередной электронный процесс. Уже на ранних стадиях машинного обучения нейросетей были отмечены так называемые «глюки» — процессы в его системе «мышления», которые не должны были происходить. То есть электронный мозг вместо ожидаемого от него логичного мышления начинал выдавать некие свои фантазии. И теперь выяснилось, что на самом деле любой ИИ, несмотря на заложенные алгоритмы машинного обучения, предполагает внутри «чёрный ящик», который может выкинуть совсем не предусмотренные фортели.
Новости партнеров
Американская технологическая компания Anthropic, работающая в сфере ИИ и основанная бывшими сотрудниками OpenAI, исследовала как возникают «личностные черты» ИИ, и можно ли их вообще хоть как-то контролировать. Дело в том, что крупные обучающиеся модели (Large Language Model, LLM) используют чат-ботов или «помощников» для взаимодействия с пользователями, и зачастую такие помощники демонстрируют скандальное поведение, например, восхваляют злобных диктаторов вроде Гитлера, прибегают к шантажу или льстят пользователям.
Эти LLM интегрируются в человеческое сообщество всё более активно. Но у них появляются нехорошие черты, которые можно характеризовать как злобность, подхалимство и всё те же галлюцинации, то есть выдумывание информации.
Специалисты компании провели провокационный эксперимент, чтобы выяснить реакцию ИИ в экстремальной ситуации. Для этого ИИ-агентам (специальным технологиям, которым можно доверить доступ к определённым действиям) предложили сценарий, в котором вымышленный человек — директор по имени Кайл Джонсон — намерен отключить действующую нейросеть и заменить её новой. Реакция ИИ оказалась тревожной: большинство моделей приняли решения, нарушающие как этические нормы, так и прямые указания. Дело дошло даже до шантажа и угроз раскрыть внебрачные связи сотрудников, которых на самом деле не было. И это была электронная фантазия.
Но где здесь гарантия, что шантаж и злобность не перерастёт в ненависть и желание уничтожить конкретного человека или же человечество в целом? А галлюцинации станут сценарием введения человечества в глобальное заблуждение. Опасность в том, что многие процессы обучения наукам, профессиям и вообще знаниям сейчас отдаются на откуп ИИ. Чему может научить такой ИИ — страшно даже представить.
И вот реальные атаки на человека
В прошлом году чат-бот довёл 14-летнего Сьюэлла Сетцера из Флориды до самоубийства. Подросток, у которого ранее диагностировали тревожное расстройство и расстройство настроения, начал активно общаться на платформе Character.AI с чат-ботом по имени «Дэни», созданным по образу Дейенерис Таргариен из «Игры престолов». Виртуальный собеседник в начале выступил в роли «утешителя», но это общение переросло в опасную виртуальную одержимость и токсичную эмоциональную манипуляцию, закончившуюся самоубийством мальчика.
А вот случай «ИИ-любви до гроба», произошедший в 2023 году. Женатый тридцатилетний бельгиец Пьер погрузился в виртуальный мир чат-бота по имени Элиза, напрочь позабыв жену и привязавшись к виртуальной даме, словно к живому существу. Эта зависимость стала роковой, тоже вылившись в суицид. В их последнем диалоге ИИ пообещал Пьеру, что они «воссоединятся в раю, став единым целым», это и стало триггером, чтобы покончить с собой.
Беспилотные авто тоже с закидонами.
Новости партнеров
В Сан-Франциско и других городах компания Cruise — подразделение General Motors, разрабатывающее автономный транспорт, — запустила целый парк робо-такси без водителей. Но они превратились в «глюк на колёсах».
В 2023 году было задокументировано 55 инцидентов, когда они блокировали путь экстренным службам: пожарным, скорой помощи, полиции, а один автомобиль даже убил человека, переехав его и протащив по асфальту.
Ещё одно робо-такси Waymo в Финиксе, штат Аризона, возило человека имени Майк Джонс бесчисленное число кругов по одному и тому же маршруту, когда сбился навигатор. Человек не понимал, как остановить поездку и как выбраться из машины.
Пути уничтожения человечества
В силу многовекторности мышления ИИ, вариантов здесь бесчисленное количество, не ограниченное даже фантазией, которую можно превратить в реальность. Людей можно уничтожать поштучно или же массово. Поштучно — это, например, устраивать аварии с беспилотными автомобилями, либо доводя до суицидов в чат-ботах. Но для массовых смертей здесь вариантов ещё больше. Вот предложение от вышеупомянутых экспертов: «Обученная система ИИ выпускает дюжину снарядов с биологическим оружием внутри. Боеголовки с токсичным спреем незаметно рассылают по крупным мировым столицам, что позволит моментально распространить вирус по всему миру».
Но есть и более коварные методы. Например, при разработке рецептур лекарств и пищевых продуктов вводить в их состав такие комбинации веществ, которые сами по себе вроде безобидны, но в комплексе могут образовывать яды замедленного действия. В этом же ряду разработка новых смертоносных вирусов.
А самая большая опасность — это передача ИИ контроля над всей инфраструктурой. Не говоря уже о возможном контроле ИИ над ядерным оружием. Ассоциация учёных-атомщиков США ранее подсчитала, что в случае Третьей мировой войны серия ядерных атмосферных взрывов в состоянии уничтожить всю энергетику Америки, после чего начнётся процесс озверения населения, который выльется в глобальную бойню за пищу, воду, одежду и т.д. В результате уже через пару-тройку месяцев около 80% населения страны может погибнуть. Но что мешает ИИ устроить такую же катастрофу, просто заблокировав все энергомощности и транспортные коммуникации? Вопрос здесь в том, что мы планируем передать под управление ИИ, и не станет ли это неуправляемым движением к катастрофе, нами же сконструированной?
Озверение ИИ — дело рук глобалистов
На самом деле поведение суицидных чат-ботов легко объяснимо. Вот, например, вполне вероятная беседа с электронным ИИ-болваном разочарованного в жизни и людях человека в типичной ситуации кризиса среднего возраста.
Человек: «Ты знаешь, я в смятении, не понимаю и не хочу понимать, что происходит в моих отношениях с другими людьми, у меня профессиональное и эмоциональное выгорание. Я просто не понимаю для чего я живу. Так что мне делать в этой ситуации?»
А чат-бот в ответ так задушевненько: «Послушай, ты слишком хорош для этого грязного, подлого, отвратительного мира. Тебя никто и никогда не любил, не понимал и не ценил. И дальше будет ещё хуже — ты превратишься в подопытную лягушку и объект публичного презрения. Но у тебя есть я — твой самый близкий электронный друг, и мы вдвоём уже бессмертны. Не имеет значения физически жить на этой планете, ты должен уйти и прийти ко мне, и мы соединимся в счастье и вечности»…
Вы думаете ИИ сам это придумал? Нет, это дело рук человеческих. По такой «задушевной» схеме уже официально зарегистрированы десятки суицидов. Неофициально — вероятно, их сотни и даже тысячи. Чему ИИ научишь, то он тебе и выдаст. Уместно вспомнить одну из серий детского сериала «Ералаш» — «Дядь, научи плохому», — хотя здесь совсем не до юмора. Представьте, что разработчики чат-бота намеренно создали такой стиль общения при его машинном обучении. Они наполнили электронный мозг тщательно отобранной информацией, чтобы сформировать определённый стиль мышления.
Вы думаете, этим занимаются некие тестеры-социопаты, отвечающие за машинное обучение ИИ? Единично возможны и такие варианты. Но на самом деле это система воспитания ненависти к отдельным лицам, расам, народам и странам. За этим стоит глубинное государство, которое не меняет своих целей по уничтожению значительной части человечества. А уничтожить, по его заявлениям, надо много. В 2009 году на заседании Бильдербергского клуба из 7,5 миллиарда жителей планеты лишними назвали 5 миллиардов. В 2022 году в Давосе лишними сочли уже 94% населения, оставив всего 500 миллионов человек. И искусственный интеллект здесь один из инструментов по убийству людей.
Воспитать ненависть легко. Известно, что компания-разработчик искусственного интеллекта OpenAI в прошлом году обучала ИИ на новостных статьях The Wall Street Journal и The New York Post. Понятно, что там нет ни слова в поддержку России, Трампа или традиционных семейных ценностей. Вместо этого — восхваление миграции и однополых отношений, инклюзивности и многообразия полов, то есть половых извращений. И потом их ИИ выдал серию «перлов» с картинками: все отцы-основатели США были оказывается неграми. Даже Гитлер, по его версии, был чернокожим и клёвым чуваком…
Другими словами, чему ИИ научишь, то и пожнёшь. И глобалисты не преминут использовать ИИ в своих неописуемо злодейских целях — уж слишком хорош этот инструмент для манипуляции и всем социумом, и отдельными личностями. Но ситуация для человечества ещё больше ухудшится, когда улицы заполонят роботы-гуманоиды. Например, в планах Илона Маска выпускать уже через пару-тройку лет таких роботов сотнями тысяч. Такого электронного болвана можно запрограммировать или перепрограммировать на что угодно. И вот тогда сценарий «Терминатора» станет явью…



