сегодня
22 декабря, 18:51
пробки
3/10
курсы валют
usd 102.3 | eur 106.5
83.98% 5.5
сегодня
22 декабря, 18:51
пробки
3/10
курсы валют
usd 102.3 | eur 106.5

Чудовищная разработка ученых может поставить крест на человечестве уже через 30 лет

Pixabay.com

По мнению экспертов искусственный интеллект в руках злоумышленников уничтожит планету гораздо быстрее, чем все вирусы вместе взятые. Подробности о приближении техногенного апокалипсиса публикует портал «Сиб.фм».

Смелое предположение о техногенной глобальной катастрофе сделал создатель первого искусственного интеллекта, британский компьютерный ученый и психолог Джеффри Хинтон. В мае текущего года он покинул компанию Google, в которой проработал более десятка лет. В своём прощальном интервью он пожалел о своем творении и откровенно высказался о потенциальных опасностях, связанных с работой всей его жизни.

Хотя учёный и не подписал открытое письмо, призывающее приостановить все разработки искусственного интеллекта (ИИ) как минимум на шесть месяцев, чтобы предотвратить «глубокие риски для общества и человечества», в настоящий момент он разорвал все связи с технологическими гигантами мира и открыто говорит о чудовищных последствиях развития своего детища.

Хинтон убеждён – если сейчас не остановить развитие ИИ, то далее ученые не смогут его контролировать, поскольку события развиваются быстрее, чем предполагало человечество. При этом он отметил, что некоторые опасности, которые уже сейчас таят в себе чат-боты с искусственным интеллектом, устрашают: «Сейчас мы видим, что такие системы, как GPT-4, значительно превосходят человека по объёму общих знаний. Что касается мышления – оно ещё не настолько развито, но ИИ уже вполне способен делать простые умозаключения. Нам пора побеспокоиться об этом», пояснил учёный.

Фото Чудовищная разработка ученых может поставить крест на человечестве уже через 30 лет 2

Но самые большие свои опасения Хинтон связывает с вероятностью попадания искусственного интеллекта в «плохие руки»: «Это просто худший, своего рода кошмарный вариант развития событий. Вы можете представить, что, например, какой-нибудь дурной деятель решит наделить роботов способностью самостоятельно создавать себе подцели (небольшие задачи, которые необходимо выполнить для достижения основной цели). В конечном итоге ИИ может решить, что ему нужно больше власти», предупредил учёный.

По его экспертным расчётам, технологический апокалипсис возможен уже через 30 лет, но сам ИИ станет умнее человека в любой сфере уже через пять: «Один из сценариев заключается в том, что злонамеренные субъекты будут использовать его возможности для создания нового биологического оружия, более смертоносного, чем естественные пандемии», предупредил Хинтон.

Загрузка...