Президент Путин и нейросеть: Что нам ждать после выборов весной 2024 года?
Через три недели после международной конференции по искусственному интеллекту и машинному обучению Artificial Intelligence Journey 14 декабря 2023 года на объединенной прямой линии и большой пресс-конференции Президент России Владимир Путин подвел итоги года и ответил на 67 заданных ему вопросов.
Один из вопросов был задан студентом Санкт-Петербургского государственного университета.
«Правда ли, что у Вас много двойников? И ещё. Как Вы относитесь к тем опасностям, которые несут в нашу жизнь искусственный интеллект и нейросети?»
Скрин из видео: https://www.youtube.com/watch?v=12CyDFyH5fY
Несмотря на предупреждение ведущей об «очень впечатляющем видео», вопрос всё же достиг эффекта неожиданности, так как был задан с использованием технологии «дипфейка» в образе самого Президента.
Признак неожиданности, судя по последующему ответу на вопрос, частично достиг своей цели, и проявился в мимике, в изменении темпа речи и тембра голоса Владимира Путина.
Скрин из видео: https://www.youtube.com/watch?v=12CyDFyH5fY
Скрин из видео: https://www.youtube.com/watch?v=12CyDFyH5fY
Скрин из видео: https://www.youtube.com/watch?v=12CyDFyH5fY
Да… Вот я смотрю, вы можете на меня быть похожи и говорите моим голосом. Но я подумал и решил, что похожим на себя и говорить моим голосом должен только один человек.
Скрин из видео: https://www.youtube.com/watch?v=12CyDFyH5fY
И этим человеком буду я. Вот так один из наших деятелей шутил когда-то».
За прошедшие 30 лет человечество масс-медиа упорно приучают осознавать смысл зашифрованных «сигналов» в тех или иных событиях.
Каков же был сигнал в ответе Президента?
Мало кто из журналистов обратил внимание на то, что шутка «одного нашего деятеля» – это слова из первой книги Жан-Жака Руссо «Исповедь» (1782—1789).
Для более глубокого осмысления сплошной текст цитаты разбит на абзацы:
«Я предпринимаю дело беспримерное, которое не найдет подражателя.
Я хочу показать своим собратьям одного человека во всей правде его природы, – и этим человеком буду я.
Я один.
Я знаю свое сердце и знаю людей.
Я создан иначе, чем кто-либо из виденных мною; осмеливаюсь думать, что я не похож ни на кого на свете.
Если я не лучше других, то по крайней мере не такой, как они.
Хорошо или дурно сделала природа, разбив форму, в которую она меня отлила, об этом можно судить, только прочтя мою исповедь.
Пусть трубный глас Страшного суда раздастся когда угодно, – я предстану пред Верховным судией с этой книгой в руках.
Я громко скажу: «Вот что я делал, что думал, чем был.
С одинаковой откровенностью рассказал я о хорошем и о дурном. Дурного ничего не утаил, хорошего ничего не прибавил; и если что-либо слегка приукрасил, то лишь для того, чтобы заполнить пробелы моей памяти.
Может быть, мне случилось выдавать за правду то, что мне казалось правдой, но никогда не выдавал я за правду заведомую ложь.
Я показал себя таким, каким был в действительности: презренным и низким, когда им был, добрым, благородным, возвышенным, когда был им.
Я обнажил всю свою душу и показал ее такою, какою ты видел ее сам, всемогущий.
Собери вокруг меня неисчислимую толпу подобных мне: пусть они слушают мою исповедь, пусть краснеют за мою низость, пусть сокрушаются о моих злополучиях.
Пусть каждый из них у подножия твоего престола в свою очередь с такой же искренностью раскроет сердце свое, и пусть потом хоть один из них, если осмелится, скажет тебе: «Я был лучше этого человека».
Предположив, что эффект неожиданности привёл к «оговорке по Фрейду», можно согласиться с тем, что признание Путиным было сделано очень тонко, с учётом личных рассуждений, в том числе относительно своего возраста, предстоящих в марте 2024 года президентских выборов и принятых решений, в частности по теме «революции генеративного ИИ».
Продолжив отвечать на вопрос, Президент сказал: «Предотвратить развитие искусственного интеллекта невозможно, а значит, нужно сделать все, чтобы быть лидерами в этом направлении».
По сути это интерпретация армейского принципа «если пьянку невозможно предотвратить, то её нужно возглавить», однако интерес вызывает другое.
Если сопоставить ответ «предотвратить невозможно» с предыдущим «я подумал и решил», то «похожим на себя и говорить моим голосом должен только один человек» звучит как-то не очень убедительно. Подумать и решить – это одно, а иметь возможности по предотвращению – другое.
Утверждение «остановить развитие искусственного интеллекта невозможно» часто связывают с Илоном Маском, неоднократно высказывающего опасения относительно потенциальной угрозы ИИ для человечества.
Но о каком значении «развития» говорил Президент?
Ведь под развитием понимается:
– и действие кого-то (какого-то субъекта)
– и состояние чего-то (какого-то объекта);
– и процесс перехода из одного состояния в другое, более совершенное (субъекта или объекта под внешним или внутренним воздействием);
– и состояние умственной и духовной зрелости, степень сознательности, просвещённости, культурности (какого-то субъекта).
Если в сообщении главы государства «о невозможности предотвращения развития», был использован смысл, заложенный Илоном Маском об опасности ИИ, то она выглядит как аксиома и имеет смысловой оттенок неспособности государства выполнить свою основную функцию, которая ему делегирована народом – защитить от опасности, с которой народ не может справиться в одиночку.
Аксиома не указывает на источник или совокупность источников опасности, перед которым оказалось бессильно государство или более конкретно – политическая элита государства:
– самостоятельное бесконтрольное развитие ИИ и переход его к «сверхразуму»;
– бесконтрольная деятельность разработчиков;
– выход процесса применения ИИ из-под контроля.
Признаками самостоятельного бесконтрольного развития ИИ могут считаться:
– экспоненциальный рост: если развитие ИИ приводит к экспоненциальному увеличению его функциональности или интеллектуальных возможностей, без возможности быстро адаптировать и контролировать эти изменения, это может привести к неуправляемому росту.
– автономность: если ИИ становится слишком автономным и независимым от человеческого контроля, это может создать ситуацию, в которой этот процесс становится неуправляемым.
– непредсказуемость: если развитие ИИ приводит к уровню сложности, который делает его действия или решения непредсказуемыми для человека или даже для других ИИ-систем, это может указывать на неуправляемость процесса.
Признаками бесконтрольной деятельности разработчиков могут считаться:
– зависимость политической элиты от решений лиц, управляющих деятельностью по разработке и внедрению ИИ;
– нахождение таких лиц за границей, вне зоны российского права;
– наделение таких лиц статусом «неприкосновенности» согласно условиям конфиденциальных международных договоров.
Признаками выхода процесса применения ИИ из-под контроля могут считаться:
– формирование требований, регламентирующих применение ИИ, без учёта разветвлённой цепочки потенциальных, последовательно возникающих друг из друга опасных ситуаций;
– предоставление права формировать такие требования лицам, управляющим деятельностью по разработке и внедрению ИИ;
– неспособность полномочных органов спрогнозировать ущербы, которые могут в будущем быть причинены создаваемыми «цифровыми» системами.
Невозможность предотвращения государством развития опасной ситуации позволяет так же судить о потере управления над процессом разработки, внедрения и применения ИИ.
Идея начать гонку за лидерство на улицах мегаполиса на спорткаре без тормозов имеет право на существование. Однако её успех будет зависеть от статистики результатов, достигнутых в ходе экспериментов. Чем будет больше получено результатов при различных условиях на спорткарах различных модификаций – тем меньше статистическая погрешность. В выигрыше окажется тот, кто управляет экспериментом, не являясь участником гонок. В проигрыше ценой своей жизни окажутся «тупые» гонщики, которые не понимают, что они тупые, потому что они тупые.
Гонка за лидерство при бесконтрольном развитии ИИ выглядит аналогично эксперименту со спорткаром, а прямая и скрытая пропаганда такой гонки – призывом к самоубийству.
Негативные последствия, которые можно ожидать от применения «дипфейков», дискредитирующих лидеров государств, – это «цветочки».
«Ягодки» начнутся, когда в онлайн-трансляциях «дипфейки» и «аватары» станут делать значимые заявления от имени лидеров государств, когда для создания дипфейков будут «сливать» биометрические данные из ЕБС, и когда для подтверждения результатов следствия будут применяться «дипфейки» невиновных граждан.
С учётом того, что об искусственном интеллекте в настоящий момент времени уже рассуждают, как об оружии, мощнее ядерного, отсутствие «тормозов» в виде «невозможности предотвращения», будет способно уничтожить население целых стран вместе с политической элитой, потерявшей инстинкт самосохранения.
«Чем это закончится, никто не знает. Таковы реалии», – подытожил Президент России.
Скрин из видео: https://www.youtube.com/watch?v=12CyDFyH5fY
А что вы думаете о «реалиях», которые следует ожидать после президентских выборов?
Сергей Нефедьев
27.12.2023. Буквально "сняли с языка":)
Проект "Дед на поводке" рассекречен
Другие публикации автора:
С. Нефедьев. Дзен-канал «Про хорошо и плохо. Продолжение». Статьи
С. Нефедьев. ВКонтакте «Про хорошо и плохо». Статьи
Материалы для повышения осведомленности по озвученным в публикации вопросам:
Видео. Разговор Президента Путина с дипфейком
Почему индустрия цифровых аватаров пугает обывателей на стадии появления Об этом сообщает «Рамблер»
Чем опасен цифровой аватар человека, или Куда ведет ЕФИР?
Негативные последствия использования дипфейков
За гранью реальности: изучение этических последствий дипфейков
Слишком реалистичны: эксперты о рисках и перспективах дипфейков
На одно лицо: эксперты предупредили россиян об опасности дипфейков
Ответные в меру: РКН поддержал ужесточение наказания за дипфейки
Технологии Deepfake как угроза информационной безопасности
Дипфейки: безобидное развлечение или серьезный риск для информационной безопасности
«Если глаза, нос и рот в нужном месте»: как ИИ может отправить любого за решетку
Комментарии
Отправить комментарий
Комментировать