Стивен Хокинг предостерегает человечество об угрозе искусственного интеллекта

0
136

Стивен Хокинг предостерегает человечество об угрозе искусственного интеллекта

Жизнь в будущем. Мы скоро попадём во власть искусственного интеллекта (ИИ).

Астрофизик Стивен Хокинг, который скончался в марте 2018 года, неоднократно подвергался критике со стороны ученых, предпринимателей в области высоких технологий, высокопоставленных деловых людей, политиков и общественности за своё мнение по «глобальным вопросам». Некоторые из его комментариев были посвящены темам, глубоко укоренившимся в его науке, в то время как другие не имели к этому никакого отношения. С другой стороны, замечания Хокинга всегда были восприняты его аудиторией как блестящие, вдохновляющие и изобретательные.

«Краткие ответы на большие вопросы» — это последняя книга Стивена Хокинга, которая создана на основе заявлений, интервью, эссе и ответов на интересующие мировую общественность вопросы. Наверное, именно поэтому, вскоре после выпуска книги в середине октября, она возглавила списки бестселлеров. И дело здесь в том, что она довольно красочно описывает, в том числе, возможности и риски, которые несёт с собой развитие искусственного интеллекта (AI).

Согласно информации, имеющейся в распоряжении ИА «Экспресс-Новости», вопрос развития искусственного интеллекта был не в области знаний Хокинга. Тем не менее, он был очарован этой темой, поэтому и прокомментировал данный вопрос. Для астрофизика не подлежит сомнению, что по мере развития ИИ, он вскоре превзойдёт человечество по своему развитию. И хотя искусственный интеллект, с одной стороны, открывает возможности для борьбы с болезнями и нищетой, его использование в области технологий вооружения может привести к глобальной катастрофе. Именно поэтому это направление вызывало большой интерес со стороны гения:

«Можно наглядно представить, что такая технология перехитрила финансовые рынки, устраняя человека не только от проведения исследований и анализа, но, не давая нам контролировать данные процессы. Также ИИ будет отстранять постепенно лидеров мировых государств от управления политическими процессами, используя для угроз свое оружие, которого человек даже не понимает, — предупредил Хокинг, – В настоящий момент и в ближайшей перспективе влияние ИИ зависит от того, кто его контролирует. А в конечном счете, контролируется ли он вообще».

Стивен Хокинг предостерегает человечество об угрозе искусственного интеллекта

В настоящее время военные силы во всем мире рассматривают вопрос о том, следует ли начать гонку вооружений в области автономных систем оружия, которые самостоятельно выбирают и устраняют свои цели. Любой, кто не возражает против такого оружия, как ООН, забывает о самом важном вопросе Хокинга: «Какова вероятная конечная точка такой гонки вооружений?».

Как и другие эксперты, он предупредил об утрате контроля и сценарии, в котором человеческий вид находится на пути самоуничтожения. Стивен Хокинг отмечал:

«Супер-интеллектуальный ИИ будет очень хорош в управлении своими целями. Но если эти цели не согласятся с ним, то у них попросту возникают проблемы. Несомненно, для ИИ вы неплохой противник, если вы убиваете своего врага из явной злобы. Однако если речь идёт о решении бытовых вопросов, видение которых разнится с мнением искусственного интеллекта, то в этом случае уже возникают проблемы местного масштаба. Но их решение также приобретает однозначную форму – уничтожение».

Стивен Хокинг предостерегает человечество об угрозе искусственного интеллекта

Хокинг заключил: «Идеальный момент, чтобы положить конец гонке вооружений с автономным оружием: сейчас! Теперь!»

Есть ли бог? Как все это началось? Можем ли мы предсказать будущее? Что в черной дыре? Возможно ли путешествие во времени? В своей последней книге Стивен Хокинг отвечает на глобальные вопросы человеческой жизни и рассматривает самые важные проблемы нашего времени. Он обращается не только к политическим правителям, но и к каждому из нас, чтобы лучше защитить нашу, находящуюся под угрозой исчезновения, родную планету.

Стивен Хокинг предостерегает человечество об угрозе искусственного интеллекта

ОСТАВЬТЕ ОТВЕТ

Please enter your comment!
Please enter your name here