본문 바로가기
TECH & SCIENCE

AI가 살인을 예측한다? 마이너리티 리포트 같은 현실, 영국에서 진행 중

by 아이디어박람회 2025. 4. 15.
반응형

'조금 더 일찍 알았더라면 좋았을 텐데...’ 라고 생각하게 되는 상황은 흔히 있다. 특히 그것이 끔찍한 흉악범죄라면 더더욱 뒤늦은 아쉬움이 크게 다가오곤 한다. "그런 사건이 터지기 전에 막을 수 있다면 얼마나 좋을까" 하는 생각이 들기도 한다.

 

 

 

실제로 영국 정부는 ‘Homicide Prediction Project(살인 예측 프로젝트)’란 이름을 내걸고, 그 ‘만약에’를 현실화하기 위해 범죄 예측 알고리즘을 개발하고 있다고 한다.

 

영국 법무부가 이 알고리즘을 만드는 과정에서 모아들이는 데이터량은 최소 10만 명에서 많게는 50만 명에 이르는 개인정보가 포함되어 있고, 그중에는 범죄 전력이 있는 이들뿐 아니라 용의자·목격자·실종자처럼 주변 인물들 정보도 들어간다고 한다.

 

영국 정부는 “그런 프로젝트는 없다”며 부인하고 있지만, 정보 투명성을 주장하는 시민단체 Statewatch가 정보공개법에 따라 요청하여 공개된 문서들에는 구체적인 정황들이 들어 있다고 한다.

 

마치, 초능력자로 불리는 ‘프리콥’이 범죄를 미리 예지하고, 주인공이 달려가 이를 막아낸다는 설정인 영화 ‘마이너리티 리포트’가 떠오른다.

 

하지만 현실에서는 초능력이 아니라 ‘데이터’다. 사람들의 과거 기록, 경찰 접촉 이력, 경제적 배경 등이 한데 모여 특정 수치나 통계로 환산되고, 그 점수가 높게 나오면 “이 사람은 살인을 저지를 가능성이 크다”는 식으로 표시되는 된다. 문제는 이런 예측 알고리즘이 완벽하지 않다는 데 있다.

 

이미 영국에서 쓰이는 Offender Assessment System(재범 위험 예측 시스템)을 분석해보니, 실제 범죄 통계와 비교했을 때 재범 위험이 과하게 높게 계산되는 경우가 꽤 있었다고 한다. 특히 흑인에 대해서는 예측 정확도가 백인보다 눈에 띄게 떨어진다는 점도 드러났다. 이는 특정 인종이나 빈곤층이 더 엄격한 사법처리를 받는 빌미로 이어질 수 있다.

 

비단, 이 문제는 영국만의 일이 아니다. 전 세계 어디든, 유색인종이나 저소득층 지역사회의 경우 경찰과의 접촉 빈도가 높고, 상대적으로 체포율도 높은 편이다. 그렇게 쌓인 데이터가 다시 알고리즘의 ‘학습 자료’가 되니, 이미 편향된 결론이 또 한 번 재생산되기 쉽다.

 

내막을 알면 알수록, “이런 예측 시스템이 정말 공정하게 돌아갈 수나 있을까?” 하는 의문이 생기지 않을 수 없다. 그러니 의문이 든다. “결국 미래를 정말로 ‘내다볼’ 수 없다면, 범죄 예측이란 게 가능하기나 한 걸까?” 영화 속에서도 초능력자조차 100% 확실한 결말을 보장해주진 못했는데, 데이터가 이 역할을 완벽히 해낼 수 있다는 보장은 어디에도 없으니까 말이다.

 

오히려 편향된 데이터가 무고한 이들을 잠재적 범죄자로 몰아붙이는 상황을 만들 수도 있으니, 부작용이 걱정되는 것이 사실이다. 그럼에도 불구하고, 국가 입장에서는 ‘묻지마 살인’ 같은 끔찍한 사건이 터지기 전에 미리 막아내고 싶은 마음이 클 수밖에 없을 것이다. 사람들의 생명이 달린 문제니까.

 

문제는, 그 과정에서 쏟아지는 막대한 정보가 엄청난 비용과 감시 체제를 낳을 것이고, 그 이면에 놓인 사생활 침해나 인권 침해의 가능성을 어찌 해결하느냐 하는 것이다.

 

어떤 사람들은 이렇게 말할 수도 있을 것이다.

 

“범죄를 막는 방법은 애초에 질 좋은 복지와 교육에서 시작되는 것 아니냐”

 

범죄가 일어나는 사회적·경제적 배경을 해결하는 것이 먼저지, 사람들을 데이터로 걸러서 위험도를 잰다고 해서 근본적 원인이 사라지는 건 아니라고 말이다.

 

실제로 영국 법원에서 재범 위험도가 높게 나온 이들이, 이후 일자리를 지원받거나 치료를 제대로 받은 뒤로는 재범 없이 사회에 잘 정착했다는 사례도 있다고 한다.

 

이 문제는 “과연 완벽한 예측이 가능한가?”와 동시에 “예측을 위해 희생해도 되는 건 무엇인가?”라는, 두 겹의 물음을 던진다.

 

현재의 범죄 통계와 미래의 범죄 가능성 사이에 놓인 간극은 여전히 크고, 편향이나 인권 침해 우려는 실재한다. 그럼에도 시스템 개발은 계속될 것이고, 세계 곳곳으로 퍼져나갈지도 모른다. 누군가에게는 ‘위험 인물’을 찾아내는 최적의 기술일 수 있지만, 또 다른 이들에게는 “아직 저지르지도 않은 죄로 의심받는” 불합리한 족쇄로 작동할 수 있으니 말이다.

 

영화 ‘마이너리티 리포트’에서조차 초능력자들이 본 미래는 절대적인 진리가 아니다. 인간이란 예측 불가능한 방향으로 흘러갈 수도 있고, 반대로 데이터가 예측한 길을 벗어나지 못한 채 그대로 비극을 맞이할 수도 있다. 영국 법무부가 추진 중이라는 ‘살인 예측 프로젝트’도 마찬가지다.

 

앞으로 이 시스템이 실제로 구현되어 범죄를 막아낼지, 혹은 예상치 못한 새로운 문제를 불러올지, 지금은 누구도 장담하기 어렵다. 분명한 건, 범죄를 저지르기 전에 미리 가로막겠다는 시도는 듣기만 해도 드라마틱하게 들리지만, 그 시도가 은근히 위험한 문턱 하나를 넘어가고 있다는 사실이다.

 

“한 번 오염된 데이터는 다시 되돌리기 어렵다”는 말이 있다. 그 데이터가 미래를 결정짓는 도구가 되는 순간, 편향된 데이터는 곧 편향된 결론과 편향된 처벌을 낳게 된다. 과연 우리는 이를 감수할 준비가 되어 있을까?

 

REFERENCE

 

 

 

반응형