research notes

인공지능 편향성 이슈와 신뢰성 확보 방안(IITP, 21.10) 본문

인공지능 신뢰성/신뢰성 정책 및 연구동향 분석

인공지능 편향성 이슈와 신뢰성 확보 방안(IITP, 21.10)

forest62590 2022. 7. 22. 17:49
728x90

인공지능 편향성 이슈와 신뢰성 확보 방안.pdf
1.20MB

 

얼마 전 스캐터랩이 개발한 인공지능 챗봇 서비스인 ‘이루다’가 개인정보 유출 및 성차별 문제로 많은 이슈 속에 서비스를 중단하였으며, 2016년 3월에는 미국의 컴퓨터 소프트웨어 회사인 마이크로소프트가 ‘테이’라는 인공지능 챗봇을 공개했지만 테이가 인종차별적 발언을 하는 등 막말을 내뱉기 시작하여 많은 논란이 커지자 마이크로소프트는 서비스를 종료했다.

 

이를 계기로 인공지능 편향성에 대한 문제가 수면 위로 본격적으로 떠올랐으며 인공지능을 도입하기 위해서는 안전하고 신뢰할만한 개발과 알고리즘의 중요성이 높아지게 되었다. 인공지능과 관련되어 제기되는 윤리적인 이슈 중 하나가 바로 편향성(bias)의 문제이다. 실제로 편향성의 문제를 편견(prejudice, vorurteil)이나 고정관념의 문제와 혼동하는 경우가 많은데, 전자가 통계적, 기술적인 용어(technical term)라고 한다면 후자는 윤리적인 용어(ethical term)라고 할 수 있다.

 

인공지능은 항상 편향성이 발생할 수 있다는 점을 인지하고 인공지능 시스템을 도입하기 위해서는 이러한 편향성의 위험을 알고 있는 것이 매우 중요하다. 포브스(Forbes)는[표1] 인공지능 활성화를 저해하는 편향(Bias) 5가지를 소개하였고, [표 2]는 인공지능 편향성을 보여주는 대표적인 예이다.

실제로 데이터를 입력하고 만드는 것은 사람이 해야 할 일이지만 현실 세계에는 수많은 인간의 편견이 존재하고 있으므로, 새로운 편견의 지속적인 식별을 통해 확인해야 할 데이터의 양은 지속적으로 증가할 수 밖에 없다. 따라서 인간이 생성한 편향된 데이터와 인간이 만든 알고리즘에서 편향을 식별하고 제거하기 위해 지속적인 데이터 확인과 검증이 필요하며, 데이터와 알고리즘에 대한 테스트를 수행하고 다른 모범 사례를 적용하여 이를 최소화해야 할 것이다.

References:

[1] 인공지능 편향성 이슈와 신뢰성 확보, IITP, 21.10

728x90
Comments