Властелины мира: искусственный интеллект захватывает мир?

Мы сейчас вступили в начало очень сложного и опасного развития человечества, эпохи цифровизации и искусственного интеллекта. Те вещи, которые раньше описывались писателями-фантастами, сегодня становятся реальностью! Многие эти изменения не замечают и даже представить себе не могут что нас ждет дальше. 

Вы помните о проекте «Большого адронного коллайдера»? Ускоритель, который разгоняет частицы высокой энергии почти до скорости света. Он разгоняет частицы и сталкивает их друг с другом, в этот момент ученые наблюдают: а что же произойдет? Коллайдер является самой крупной экспериментальной установкой в мире, в его строительстве и работе принимают участие свыше 10 тысяч ученых со всего мира. Просто представьте: длина основного кольца ускорителя составляет 26 659 км. 

О коллайдере можно отдельный материал публиковать, или даже целую книгу, но нас сегодня интересует другое. Вот представьте такой мощный проект, и ученые по сути просто смотрят, что же происходит с частицами, которые они сталкивают друг с другом. При этом все ученые подтверждают, что пусть маловероятно, но все-же при таких «экспериментах» возможно образование квантовых черных дыр. Эти же теории подтверждает моделирование на компьютере, которое было проведено канадскими и американскими физиками. Они доказали, что микроскопические черные дыры могут появляться в результате гравитационных эффектов, возникающих при столкновении частиц. Соответственно чем интенсивнее столкновение, тем выше вероятность катастрофы. 

«О, прикольно!», – скажут некоторые читатели, наивно полагая, что «ничего страшного не произойдет». Ученые в свою очередь заявляют о риске разрастания черной дыры, которая постепенно будет пожирать нашу планету. Просто живой пример того, что происходит прямо сейчас! И какие РЕАЛЬНЫЕ РИСКИ существуют для человечества.

И вот сейчас совершенно аналогичное происходит и в развитии искусственного интеллекта. Мы вступили в «цифровую эпоху» и допустим даже лично президент России Владимир Путин прямо говорит, что ИИ – будущее всего мира, и тот кто возьмет его под контроль – будет «властителем мира». 

Специально для моих читателей я подготовил подробный материал о том, что сейчас происходит. Большое введение, для понимания проблемы. 

Прочитайте очень внимательно! 

Уже больше тысячи ВЕДУЩИХ В МИРЕ экспертов в сфере искусственного интеллекта и информационных технологий призвали СРОЧНО приостановить обучение нейросетей (чат-ботов).

Так как этот неконтролируемый процесс может представлять угрозу для человечества.

Институт будущего жизни («Future of Life Institute» (FLI)) — международная некоммерческая организация, созданная для прогнозирования и снижения глобальных рисков, с которыми сталкивается человечество. В том числе и рисков, возникающих при создании искусственного интеллекта (ИИ). 

22 марта институт выпустил открытое письмо с призывом НЕМЕДЛЕННО приостановить гигантские эксперименты с искусственным интеллектом.

«МЫ ПРИЗЫВАЕМ ВСЕ ЛАБОРАТОРИИ ИИ НЕМЕДЛЕННО ПРИОСТАНОВИТЬ КАК МИНИМУМ НА ШЕСТЬ МЕСЯЦЕВ ТРЕНИРОВКУ СИСТЕМ ИИ БОЛЕЕ МОЩНЫХ, ЧЕМ GPT-4», 

— говорится в петиции.

Представители Института призвали правительства вмешаться и ввести мораторий на такие разработки, если технологические компании не сделают этого сами.

ДЛЯ ПОНИМАНИЯ УРОВНЯ ЭКСПЕРТОВ, ПОДПИСАВШИХ ОТКРЫТОЕ ОБРАЩЕНИЕ:

Йошуа Бенгио, основатель и научный руководитель «Mila», лауреат премии Тьюринга и профессор Монреальского университета;

Стюарт Рассел, Беркли, профессор компьютерных наук, директор Центра интеллектуальных систем и соавтор стандартного учебника “Искусственный интеллект: современный подход”;

Илон Маск, генеральный директор «SpaceX», «Tesla» и «Twitter»;

Стив Возняк, соучредитель «Apple»;

Юваль Ноа Харари, профессор Еврейского университета в Иерусалиме;

Яан Таллин, соучредитель «Skype»;

Эван Шарп, соучредитель «Pinterest»

…и плюс ещё больше тысячи не менее известных людей! 

От имени государства «Российская Федерация» уже сделано заявление о том, что Россия продолжит работу по развитию искусственного интеллекта (ИИ), несмотря на опасения института «Future of Life».

Об этом заявил пресс-секретарь Президента РФ Дмитрий Песков: 

«Президент [России Владимир Путин] неоднократно говорил о важности этой работы, с тем, чтобы не допускать отставания нашей страны. Эта работа будет продолжаться. Что касается точки зрения тех, кто говорит об опасности ИИ, вы знаете, что любое лекарство при неправильном использовании превращается в яд». 

ДЛЯ ПОНИМАНИЯ, О ЧЕМ ГОВОРИТ ПРЕСС-СЕКРЕТАРЬ:

Владимир Путин: «Искусственный интеллект – будущее не только России, это будущее всего человечества. Здесь колоссальные возможности и трудно прогнозируемые сегодня угрозы. Тот, кто станет лидером в этой сфере, будет властелином мира».

(Открытый урок «Россия, устремлённая в будущее», 1 сентября 2017 года.)

НАСКОЛЬКО СЕРЬЁЗНА УГРОЗА ИИ?

Что такое Институт будущего жизни и откуда он взялся?

FLI – это общественная организация, существующая с 2015 года.

Вот что декларировано на сайте организации:

«Сохранение будущего жизни.

То, как разрабатываются и используются определенные технологии, имеет далеко идущие последствия для всей жизни на Земле. В настоящее время это касается искусственного интеллекта, биотехнологий и ядерных технологий.

При правильном управлении эти технологии могут изменить мир таким образом, что жизнь станет значительно лучше как для живущих сегодня людей, так и для всех тех, кому еще предстоит родиться. Их можно было бы использовать для лечения и искоренения болезней, укрепления демократических процессов и смягчения последствий – или даже остановки – изменения климата.

При неправильном управлении они могли бы сделать обратное. Они могут вызвать катастрофические события, которые поставят человечество на колени, возможно, даже поставят нас на грань вымирания.

Миссия Института будущего жизни заключается в том, чтобы направить преобразующие технологии подальше от экстремальных, крупномасштабных рисков на благо жизни».

«С самых ранних дней человеческая цивилизация, а через нее все больше и больше вся жизнь на Земле, формировалась с помощью технологий. Однако в нынешние десятилетия происходит нечто беспрецедентное. Человечество теперь обладает властью влиять и даже уничтожать жизнь на Земле в целом. И недавно, благодаря постоянному развитию биотехнологий и машинного интеллекта, мы вступили в эпоху, в которой жизнь и интеллект будут создаваться жизнью и интеллектом, а не эволюцией. Быстро растущая мощь этих технологий подразумевает, что изменения следующих нескольких десятилетий и их влияние на долгосрочное будущее жизни, вероятно, будут глубокими – и опасными.

Миссия Института будущего жизни, основанного в 2015 году, заключается в том, чтобы направлять преобразующие технологии на благо жизни и избегать экстремальных крупномасштабных рисков.

Стремясь к выполнению этой миссии, мы поддерживаем развитие институтов и концепций, необходимых для управления мировыми технологиями и обеспечения позитивного будущего. И мы стремимся уменьшить масштабный вред, катастрофы и экзистенциальный риск, возникающие в результате случайного или преднамеренного неправильного использования преобразующих технологий.

В настоящее время FLI фокусирует свою энергию на вопросах продвинутого искусственного интеллекта, милитаризованного ИИ, ядерной войны и новых просоциальных платформ. Мы также изучаем темы в других областях, включая биологический риск и сохранение биоразнообразия. Тем не менее, мы считаем, что наша сфера деятельности настолько широка, насколько это необходимо для выполнения нашей основной миссии».

ДЛЯ ПОЛНОЦЕННОГО ПОНИМАНИЯ ВОПРОСА ПОЛНЫЙ ТЕКСТ ПЕТИЦИИ.

«ПРИОСТАНОВИТЕ ГИГАНТСКИЕ ЭКСПЕРИМЕНТЫ С ИИ: ОТКРЫТОЕ ПИСЬМО.

(Подписей 1123.)

Мы призываем все лаборатории искусственного интеллекта немедленно приостановить, по крайней мере, на 6 месяцев, подготовку систем искусственного интеллекта, более мощных, чем GPT-4.

Системы ИИ с интеллектом, конкурирующим с человеком, могут представлять серьезные риски для общества и человечества, как показали обширные исследования и признаны ведущими лабораториями искусственного интеллекта. Как указано в широко одобренных Принципах ИИ Asilomar, продвинутый ИИ может представлять собой глубокое изменение в истории жизни на Земле, и его следует планировать и управлять с соответствующей осторожностью и ресурсами. К сожалению, такого уровня планирования и управления не происходит, хотя в последние месяцы лаборатории ИИ оказались втянутыми в бесконтрольную гонку за разработкой и внедрением все более мощных цифровых умов, которые никто – даже их создатели – не может понять, предсказать или надежно контролировать.

Современные системы ИИ в настоящее время становятся конкурентоспособными в решении общих задач, и мы должны спросить себя: должны ли мы позволить машинам наводнять наши информационные каналы пропагандой и неправдой? Должны ли мы автоматизировать все рабочие места, включая те, которые выполняют? Должны ли мы развивать нечеловеческие умы, которые в конечном итоге могут превзойти численностью, перехитрить, устареть и заменить нас? Должны ли мы рисковать потерей контроля над нашей цивилизацией? Такие решения нельзя делегировать никем не избранным техническим лидерам. Мощные системы ИИ следует разрабатывать только тогда, когда мы уверены, что их эффект будет положительным, а риски управляемыми. Эта уверенность должна быть хорошо обоснована и возрастать с увеличением величины потенциальных эффектов системы. Недавнее заявление OpenAI, касающееся общего искусственного интеллекта, гласит, что “В какой-то момент может оказаться важным получить независимую оценку, прежде чем начинать обучать будущие системы, и для наиболее продвинутых усилий согласиться ограничить темпы роста вычислений, используемых для создания новых моделей”. Мы согласны. Этот момент настал.

Поэтому мы призываем все лаборатории искусственного интеллекта немедленно приостановить как минимум на 6 месяцев подготовку систем искусственного интеллекта, более мощных, чем GPT-4. Эта пауза должна быть публичной и поддающейся проверке и включать всех ключевых участников. Если такая пауза не может быть введена быстро, правительствам следует вмешаться и ввести мораторий.

Лаборатории искусственного интеллекта и независимые эксперты должны использовать эту паузу для совместной разработки и внедрения набора общих протоколов безопасности для продвинутого проектирования и разработки ИИ, которые тщательно проверяются и контролируются независимыми внешними экспертами. Эти протоколы должны гарантировать, что системы, придерживающиеся их, вне всяких разумных сомнений, безопасны. Это не означает паузу в разработке ИИ в целом, просто отступление от опасной гонки к все более крупным непредсказуемым моделям черного ящика с новыми возможностями.

Исследования и разработки в области ИИ следует переориентировать на то, чтобы сделать сегодняшние мощные, современные системы более точными, безопасными, интерпретируемыми, прозрачными, надежными, согласованными, заслуживающими доверия и лояльными.

Параллельно разработчики ИИ должны работать с политиками, чтобы значительно ускорить разработку надежных систем управления ИИ. Они должны, как минимум, включать: новые и дееспособные регулирующие органы, занимающиеся ИИ; надзор и отслеживание высокопроизводительных систем ИИ и больших пулов вычислительных возможностей; системы происхождения и водяных знаков, помогающие отличать реальные от искусственных и отслеживать утечки моделей; надежную экосистему аудита и сертификации; ответственность за причиненный ИИ вред; надежное государственное финансирование технических исследований в области безопасности ИИ; и учреждения с хорошими ресурсами для преодоления драматических экономических и политических потрясений (особенно для демократии), которые вызовет ИИ.

Человечество может наслаждаться процветающим будущим с ИИ. Преуспев в создании мощных систем искусственного интеллекта, мы теперь можем наслаждаться “летом искусственного интеллекта”, в течение которого мы пожинаем плоды, разрабатываем эти системы на явную пользу всем и даем обществу шанс адаптироваться. Общество приостановило другие технологии с потенциально катастрофическими последствиями для общества. Мы можем сделать это здесь. Давайте наслаждаться долгим искусственным летом, а не бросаться неподготовленными в осень».

P.S.

ВНИМАНИЮ ЧИТАТЕЛЯ: я собрал в материале все основные моменты С ДОСЛОВНЫМ ЦИТИРОВАНИЕМ в том числе первоисточника – самого текста Открытого письма.

Событие действительно серьёзное, раз от имени Правительства РФ его посчитали нужным прокомментировать! 

Это уже вызвало огромный интерес и у моих читателей. С просьбой разобраться в этом вопросе я получил писем больше, чем по поводу климатического или тектонического оружия. 

В следующих материалах я постараюсь разобраться в вопросе детально. Это действительно очень важно!

© ПАВЕЛ ПАШКОВ

 

ПОДДЕРЖИТЕ ПРОЕКТЫ

Без вашей поддержки защищать природу практически невозможно. Вся деятельность ведется собственными силами! Мы должны оставаться независимыми от власти и бизнеса.

 
Встаньте рядом! Поддержите борьбу за дикую природу донатом.

ХОЧУ ПОДДЕРЖАТЬ!

ЛИЧНЫЙ КРУГ

Станьте частью закрытого круга соратников на Boosty. Так вы помогаете нам бороться за дикую природу!

УЗНАТЬ ПОДРОБНЕЕ

Павел Пашков

Срочные изменения в защите дикой природы, мы готовим к запуску научную платформу. Узнайте подробнее здесь…