Полицейских предупредили о рисках использования ИИ в отчетах

Полицейских предупредили о рисках использования ИИ в отчетах

Американский союз защиты гражданских свобод (ACLU) выступил против использования искусственного интеллекта для составления полицейских отчет. Организация отмечает, что внедрение ИИ усугубит существующие проблемы в правоохранительных органах и создаст новые угрозы для гражданских свобод и прав человека.

Некоторые полицейские управления США стали применять ИИ для автоматизации отчетов. Искусственный интеллект переводит видеозаписи с нательных камер офицеров в текст, а затем сам генерирует отчеты. Полицейские могут редактировать эти документы перед их окончательной подачей. Тем не менее, ACLU выражает серьезные опасения по поводу использования подобных технологий в уголовной системе правосудия.

Организация подчеркивает, что ИИ часто допускает ошибки, искажает факты или демонстрирует предвзятость, отражая стереотипы, заложенные в данных для его обучения. Также существует риск того, что искусственный интеллект может незаметно исказить восприятие самих офицеров, заменяя их воспоминания машинным интерпретациями.

Еще одна проблема, по мнению ACLU, заключается в отсутствии прозрачности работы таких систем. Граждане и независимые эксперты должны иметь доступ к информации о том, как работают алгоритмы, чтобы оценить их надежность. Важно, чтобы подсудимые в уголовных делах могли оспаривать доказательства, созданные с помощью ИИ. Однако большая часть процессов внутри этих технологий остается закрытой.

Кроме того, ACLU подчеркивает, что традиционные полицейские отчеты служат важным инструментом контроля. Офицеры, составляя их, обосновывают свои действия перед руководством. Внедрение ИИ может ослабить этот механизм, убрав человеческий элемент из процесса документирования событий.