[기고] “모든 모형은 틀리다. 몇 개는 유용하다.”
상태바
[기고] “모든 모형은 틀리다. 몇 개는 유용하다.”
  • 신지형 정보통신정책연구원 ICT 통계정보연구실 연구위원
  • 승인 2020.01.05 09:00
  • 댓글 0
이 기사를 공유합니다
신지형 KISDI ICT 통계정보연구실 연구위원
신지형 KISDI ICT 통계정보연구실 연구위원

[신지형 정보통신정책연구원 ICT 통계정보연구실 연구위원] 기술발전을 바탕으로 보다 합리적인 세상을 만들고자 하는 인간의 노력은 지속적으로 진화한다. 인공지능, 딥러닝, 빅데이터 등 이른바 데이터 기술(Data Technology)의 집약적 발전은 인간 삶의 양식을 서서히 바꾸고 있는 중인 것 같기도 하다. 유통업체에서는 빅데이터 분석을 통해 소비자 행동양상을 범주화하여 주문에서 배송에 걸리는 시간을 단축하는 데 사용한다고 한다. 이미 많은 사람이 벌써 어젯밤에 주문한 물건이 오늘 새벽 문 앞에 배송되어있는 서비스를 누리고 있지 않은가? 의료분야에서도 인공지능이 특정 질환의 진단을 도와주거나 방대한 양의 논문을 검색하여 치료 방법을 제시하기도 한다. 공공분야도 마찬가지다. 서울시는 시민들의 통화패턴과 택시 이용 자료를 분석하여 심야버스 노선을 설계하였다. 시민들은 호응했고 결과는 대 성공이었다. 행정안전부에서는 빅데이터 분석을 통한 복지사각지대 발굴, 인공지능 기반의 범죄위험도 분석을 통한 스마트 치안 구축 등 행정 분야의 혁신을 이끌어 내려는 다양한 시도를 하고 있다. 

하지만 겪어보지 못한 새로운 것에 대한 시도는 의도치 않은 양면성을 드러내기도 한다. 인공지능, 5G, 사물인터넷 등 4차 산업혁명의 핵심기술이 총체적으로 집약되었다는 자율주행 자동차가 고전적 윤리문제인 “트롤리 딜레마1)”를 비껴갈 수 없는 것처럼, 새로운 기술의 적용은 그것이 가치중립성을 유지하는지 여부에 따라 양날의 검으로 작용할 수 있다. 예를 들어, 미국 인디애나주에서는 복지 부정수급자 근절을 위해 복지수급자격 판정에 자동화된 적격성 판정시스템을 도입하였지만 적격성 판정시스템의 알고리즘은 소외된 집단을 견제, 처벌하기도 하며 오히려 공공복지를 약화시키는 결과를 초래했다. 복잡한 알고리즘이 의도치 않게 사회 불평등을 심화시키는 꼴이 되었고, 결국 자동화된 적격성 판정시스템은 폐지2)되었다. 

빅데이터와 알고리즘은 인간의 판단과 의사결정을 대체할 수 있을까? 방대한 양의 자료 처리를 통한 의사결정은 대상의 범주화를 통한 예측이 바탕이 되어야 할 것이다. 하지만 일정한 스펙트럼을 가지는 형태의 데이터를 “범주화”는 것에는 불확실성이 내재하고 있다. 데이터를 범주화 하는 기법, 의사결정의 알고리즘은 다양하게 구성 될 수 있기 때문이다. 따라서, 이에 따른 의사결정의 결과도 다르다. 근본적으로 분류에 따른 의사결정에 대한 오류를 제거하려면, 먼저 분류체계를 구성하고 있는 범주가 서로 상호배타적이어야 하고, 그 범주에 속하도록 결정짓는 기준이 되는 변수들의 속성이 분명해야 한다. 또한, 자료처리의 과정에 있어서 의사결정의 논리적 절차과정인 알고리즘은 투명하고 누구나 포용할 수 있는 기준이 바탕이 되어야 할 것이다. 하지만, 예측모형에서 자주 사용되는 통계학적 모형은 꽤 강한 전제조건들을 담보로 한다. 특히 모형에 사용된 변수들에 대한 전제조건은 모형을 개발하는 사람의 의견이 담길 수밖에 없다. 겉으로는 “수학적”인 형태를 띠고 있어서 매우 객관적이고 투명해 보이지만, 내면을 뒤집어 보면 그렇지 않을 수 있다. 모형이 추구하는 가치가 중립적이려면 꽤 강한 전제조건들에 대한 보편적인 동의가 바탕이 되어야 한다. 유명한 통계학자 George Box는 이렇게 말했다. “모든 모형은 틀리다. 하지만, 몇 개는 유용하다. (All models are wrong, but some are useful.)” George Box가 말한 것처럼 우리는 틀린 모형을 마치 절대적 사실인 것처럼 맹신하고 있을지도 모른다.

기술의 발전이 빠르게 진행되고 있는 것처럼 부작용에 대한 논의도 동시다발적으로 진행되고 있다는 점은 굉장히 고무적이다. 지난 4월에는 유럽연합 집행위원회(European Commission)가 인공지능 윤리 가이드라인(Ethics guidelines for trustworthy Artificial Intelligence)을 발표했다. 국내에서도 방송통신위원회와 정보통신정책연구원은 지난 11월 신기술의 도입이 초래할 수 있는 기술적, 사회적 위험으로부터 안전한 지능정보서비스 환경을 조성하기 위해, 지능정보사회의 모든 구성원들이 고려할 공동의 기본 원칙을 제시하는 이용자 중심의 지능정보사회를 실현하기 위한 원칙을 발표3)했다. 이러한 논의가 되고 있다는 점은 성찰을 통한 발전을 보여주고 있다고 생각한다. 앞으로 우리는 과학기술의 발전이 더 나은 사회를 위해 어떻게 적용하는 것이 올바른 방향인지 재논의되어야 할 시점이다.

1) 1명과 충돌하게 되는 선로와 5명과 충돌하게 되는 선로 사이에서 어떤 선로를 선택해야 하는지 결정해야 하는 사고실험. 다른 한편에서는 AI는 충돌 자체를 미연에 방지할 수 있는 기술을 탑재하기 때문에 논제 자체가 자율주행 자동차에 빗대어 논의하기 비현실적이라는 의견도 있다.
2) 버지니아 유뱅크스는 저서  『자동화된 불평등』에서 다양한 사례를 소개한다.
3) 방송통신위원회 (2019.11.11). 이용자 중심의 지능정보사회를 위한 원칙. 보도자료.

신지형 정보통신정책연구원 ICT 통계정보연구실 연구위원 webmaster@m-i.kr신지형 정보통신정책연구원 ICT 통계정보연구실 연구위원의 다른기사 보기
담당업무 : 게임, 인터넷, IT서비스 등
좌우명 : 꼰대가 되지 말자

댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.