Стивен Хокинг считает, что человечество находится под угрозой саморазрушения из-за ИИ — Код НЛО | UFO code

Теория конца Стивен Хокинг является одним из самых уважаемых умов в науке сегодня. Он часто говорит по широкому кругу тем как в рамках своего опыта теоретической физики, так и за ее пределами.

Стивен Хокинг считает, что человечество находится под угрозой саморазрушения из-за ИИ

Стивен Хокинг считает, что человечество находится под угрозой саморазрушения из-за ИИ

Теория конца

Стивен Хокинг является одним из самых уважаемых умов в науке сегодня. Он часто говорит по широкому кругу тем как в рамках своего опыта теоретической физики, так и за ее пределами. Некоторые из наиболее обсуждаемых тем Хокинга, включая поиск инопланетной жизни ,  изменение климата, искусственный интеллект (ИИ) и то, как все эти вещи и многое другое собираются  раз и навсегда устроить конец человечеству .

Выступая на мероприятии в Кембриджском университете в прошлом году, Хокинг сказал: «Наша земля становится слишком маленькой для нас, глобальное население растет с угрожающей скоростью, и мы рискуем самоуничтожения».

Он признает пессимизм своих утверждений. Хокинг приводит прохождение спорного «Brexit» план для Великобритании выйти из ЕС в качестве причины для этого непреходящого пессимизма, говоря, что если мера проходит «... Я бы не быть оптимистом о долгосрочной перспективе для нашего вида. »

«В самую точку»

Дурвуд Заелке является основателем и президентом Института управления и устойчивого развития (IGSD), организации с миссией «содействовать справедливому и устойчивому обществу и защищать окружающую среду, продвигая понимание, развитие и внедрение эффективных и подотчетных системы управления для устойчивого развития ». Zaelke рассказал Футуризму о комментариях Хокинга.

«Мистер. Хокинг находится на месте», - начал он. «Мы стремимся к быстрому движению - действительно, к ускоряющейся проблеме изменения климата, к медленным решениям, и мы становимся все более и более отстающими». По мере того, как население продолжает бум, пагубные экологические последствия человечества будут продолжаться ухудшаться.

Как и Хокинг, Зеальке полагает, что мы близки к, когда изменение климата становится необратимым. Говоря в ужасном выражении, Зеальке сказал, что «... мы скоро столкнемся с климатическим хаосом, который угрожает нашей самой цивилизации и нашей демократической форме правления, в то время как страх хаоса кормит авторитарные режимы».

Чтобы обеспечить выживание нашего вида, Хокинг предлагает человечеству выйти за пределы этой планеты. В июне Хокинг сказал BCC, что «Экспансия может быть единственным, что спасает нас от нас самих себя. Я убежден, что людям нужно покинуть Землю ». Колонизация других областей Солнечной системы, безусловно, поможет уменьшить часть этого давления населения и, следовательно, снизить выбросы углерода. Несмотря на любой положительный потенциал этой идеи, Хокинг цитирует еще одну угрозу для человека, которая просто не может убежать.

ИИ - аннигиляция

Хокинг часто говорит о развитии искусственного интеллекта  (ИИ) как истинного виновника возможной гибели людей. В интервью WIRED  Hawking сказал: «Джинни из бутылки. Я боюсь, что ИИ может вообще заменить людей ».

Хокинг опасается, что мы разработаем ИИ, который слишком  компетентен: «Суперинтеллигентный ИИ будет чрезвычайно хорош в достижении своих целей, и если эти цели не будут соответствовать нашим, у нас будут проблемы». Другие крупные имена в науке и технике разделяют эти  же трепедации, как Хокинг.

Основатель OpenAI и генеральный директор SpaceX и Tesla, Элон Муск, также обеспокоен разрушительным потенциалом ИИ. Муск модерировал свою риторику сравнительно с Хокином (хотя он и сказал, что ИИ более рискован, чем Северная Корея), который фокусируется на необходимости регулирования развития систем ИИ. «Я просто считаю, что все, что представляет угрозу для общества, заслуживает, по крайней мере, понимания правительства, потому что одним из мандатов правительства является общественное благополучие», - сказал Муск.

Хокинг считает, что «какая-то форма мирового правительства» должна контролировать технологию, чтобы машины не поднимались и не восставали, как их завершающие вымышленные коллеги.

Однако эти опасения могут быть несоразмерными реальности. Говоря о футуризме обо всем этом страхе,  связанном с развитием ИИ, Паскаль Кауфманн, основатель Starmind и президент инициативы по разработке синтетического интеллекта  Фонда Mindfire, отрицает вероятность превращения ИИ в угрозу. «Удивительно, что когда дело доходит до ИИ, наши первые мысли часто идут на порабощение нашими творениями. Эта перспектива делает для развлекательных фильмов, но это не значит, что реальность обречена идти по тому же пути или что это вероятный сценарий », - пояснил он.

Однако Кауфманн не отрицает возможности разрушительного ИИ. «Существуют опасения, связанные с созданием такой мощной и всеведущей технологии, так же как и угрозы с чем-либо мощным. Это не значит, что мы должны принять самое худшее и принять потенциально опасные решения, основанные на этом страхе ».

Возможно, есть какой-то способ торговли иррациональными страхами для рациональных. Хокинг, безусловно, прав насчет угрозы изменения климата. Возможно, если бы люди больше интересовались научным фактом изменения климата, чем научная фантастика повелителей-убийц-роботов, мы могли бы начать реальный прогресс в возвращении нашей планеты.

Источник

Нравится
Не нравится
RSS
Нет комментариев. Ваш будет первым!

Другие новости

Подводные НЛО

Как будто понимая свое превосходство, загадочный объект даже не пытался скрыться и крутился около военных

Лекарь из иного мира

Туманная фигура слегка покачнулась в дверях, и из её горящих глаз ударили в Бориса два луча света." Конец сентября 1991 года. Самое начало бабьего лета. Город Батайск Ростовской области. Семь часов вечера.

Авторизация

Поделиться ...