Прогнозирование преступности: как нейросети меняют подход к безопасности

Фото: ShutterStock

Технологии искусственного интеллекта (ИИ) развиваются с невероятной быстротой, и их воздействие на общество становится все более заметным. Одной из наиболее актуальных тем последних лет является применение ИИ для повышения уровня безопасности и предотвращения преступлений. В этом контексте ученые из Южной Кореи представили новую нейросеть под названием Dejaview, которая способна предсказывать преступления с точностью до 82%. Тем не менее, использование таких технологий вызывает множество споров, так как у них есть как положительные, так и отрицательные аспекты, что и становится предметом активных обсуждений в обществе. Об этом сообщает 1rre.ru

Нейросети в борьбе с преступностью

Модель Dejaview, созданная учеными из Корейского научно-исследовательского института электроники и телекоммуникаций (ETRI), представляет собой инновационное решение для борьбы с преступностью. Она анализирует видеозаписи, фиксируя поведение людей в общественных местах и сопоставляя его с типичными паттернами, характерными для преступников. Система не только обнаруживает потенциально опасные действия, но и прогнозирует возможный рост преступности в определенных районах.

кибератаки

Одной из ключевых функций Dejaview является анализ индивидуальных поведенческих паттернов, что может быть полезно для предотвращения рецидивов среди бывших заключенных или людей под наблюдением. Это открывает новые возможности для более эффективного контроля над правонарушителями и, возможно, способствует снижению уровня рецидивной преступности.

Тем не менее, система сталкивается с серьезными ограничениями, вызывающими опасения у экспертов. Вопросы конфиденциальности и прав человека являются основными проблемами, так как в России и других странах еще не разработана четкая правовая база для использования таких технологий. Специалист по машинному обучению Анастасия Перкова подчеркивает необходимость создания нормативно-правовой основы, особенно в контексте обработки персональных данных. Это создает «серую зону» правового регулирования, поскольку искусственный интеллект может обрабатывать чувствительные данные, включая видеозаписи с лицами.

Кроме того, существует этическая проблема в классификации асоциального поведения. Например, синдром Туретта может привести к неправильной интерпретации действий, которые ИИ может считать правонарушениями, хотя на самом деле они являются следствием заболевания. Директор Angara Security Павел Покровский обращает внимание на риск ошибочной интерпретации нейросетями таких особенностей как угрозу.

Вызовы безопасности и кибератак

Несмотря на существующие вызовы, технологии на основе искусственного интеллекта (ИИ) продолжают активно внедряться в нашу повседневную жизнь. В России уже установлены системы распознавания лиц в общественных местах, и их количество растет с каждым годом. Сергей Голицын, руководитель направления Т1 ИИ, отмечает, что такие системы способны не только распознавать лица, но и выявлять потенциально опасные объекты и поведение людей, что делает их важными для обеспечения общественной безопасности. Однако для успешного развертывания этих технологий необходимо соблюдение законодательства о персональных данных и высокая эффективность систем.

С запуском коммерческой версии Dejaview, который намечен на конец 2025 года, ожидается, что такие системы будут играть значимую роль в правоохранительных органах по всему миру. Однако будущее этих технологий будет зависеть от решения вопросов конфиденциальности, точности прогнозов и безопасности данных.


close
Наши информационные каналы
close
Зарегистрировавшись, вы соглашаетесь с нашими Условиями использования и соглашаетесь с тем, что информационно-аналитический портал 1RRE может иногда связываться с вами о событиях, анализах, новостях, предложениях и т. д. по электронной почте. Рассылки и письма от 1RRE можно найти по маркетингу партнеров.