Хинтон: Искусственный интеллект угрожает будущему человечества – 30 лет на размышления

Фото: ShutterStock

Джеффри Хинтон, известный как «крестный отец» искусственного интеллекта, выразил тревогу по поводу потенциальных опасностей, связанных с развитием этой технологии. Он пересмотрел свои предыдущие прогнозы и теперь считает, что вероятность того, что ИИ может привести к вымиранию человечества в течение следующих 30 лет, колеблется от 10% до 20%. Хинтон подчеркивает необходимость внимательного отношения к вопросам безопасности и этики в области ИИ, чтобы предотвратить возможные катастрофические последствия. Об этом пишет 1rre.ru

Предупреждение Хинтона: ИИ может стать причиной гибели человечества в ближайшие три десятилетия

Недавно известный ученый Джеффри Хинтон пересмотрел свои оценки вероятности возникновения катастрофического сценария, связанного с развитием искусственного интеллекта. Ранее он считал, что риск такого развития событий составляет 10%, однако теперь он повысил эту оценку до 10–20%. В интервью на программе Today на BBC Radio 4, отвечая на вопрос о своих изменившихся взглядах, Хинтон отметил, что человечество никогда не сталкивалось с существами, обладающими более высоким уровнем интеллекта.

Он подчеркнул, что в истории не было примеров, когда более разумное существо полностью подчинялось менее разумному. В качестве единственного исключения он привел отношения между матерью и младенцем, где эволюция создала механизмы, позволяющие ребенку влиять на поведение матери. Тем не менее, таких случаев крайне мало. Хинтон предостерег, что в сравнении с мощными системами искусственного интеллекта, люди могут оказаться похожими на трехлетних детей, что подчеркивает потенциальную опасность и необходимость серьезного подхода к вопросам безопасности и этики в разработке ИИ.

ИИ беспокоит «крестного отца»?

Джеффри Хинтон, признанный эксперт в области искусственного интеллекта и один из его основателей, неоднократно высказывал свои опасения по поводу неконтролируемого развития технологий ИИ. В 2023 году он принял решение покинуть свою должность в компании Google, чтобы иметь возможность свободно обсуждать риски, связанные с этой технологией. Хинтон особенно акцентирует внимание на том, что искусственный интеллект может быть использован недобросовестными участниками рынка для достижения своих целей, что создает дополнительные угрозы для общества.

Одной из главных проблем, которую он выделяет, является возможность создания ИИ, который будет превосходить людей по интеллекту. Это может привести к ситуации, когда человечество потеряет контроль над такими системами, что чревато непредсказуемыми последствиями. В интервью он признался, что не ожидал столь стремительного прогресса в области ИИ и полагал, что подобные проблемы возникнут только в будущем. Однако Хинтон отметил, что большинство экспертов в области искусственного интеллекта считают, что в течение ближайших 20 лет будут разработаны системы, которые превзойдут человеческий интеллект, что вызывает у него серьезные опасения.

Хинтон также подчеркивает, что темпы развития технологий оказались значительно выше его ожиданий. Он призывает к необходимости регулирования данной отрасли, выражая сомнения в том, что рыночные механизмы смогут обеспечить безопасность. По его мнению, крупные компании, ориентированные исключительно на получение прибыли, не будут уделять достаточного внимания потенциальным рискам, связанным с развитием ИИ. Хинтон считает, что единственным способом заставить эти компании инвестировать в исследования по безопасности является государственное регулирование, которое должно стать основой для создания безопасной среды в сфере искусственного интеллекта.

Несмотря на то что Хинтон является одним из «крестных отцов» искусственного интеллекта и лауреатом престижной премии Тьюринга, его взгляды не разделяются всеми его коллегами. Например, Янн Лекун, другой лауреат этой премии, придерживается противоположной точки зрения, утверждая, что искусственный интеллект имеет потенциал спасти человечество от вымирания. Это разногласие в мнениях подчеркивает сложность и многогранность вопросов, связанных с развитием ИИ, и необходимость открытой дискуссии о его будущем.


close
Наши информационные каналы
close
Зарегистрировавшись, вы соглашаетесь с нашими Условиями использования и соглашаетесь с тем, что информационно-аналитический портал 1RRE может иногда связываться с вами о событиях, анализах, новостях, предложениях и т. д. по электронной почте. Рассылки и письма от 1RRE можно найти по маркетингу партнеров.