연합뉴스 본문 바로가기 메뉴 바로가기

연합뉴스 최신기사
뉴스 검색어 입력 양식

[이슈 컷] 흑인에 유독 가혹한 인공지능…정말 똑똑한 것 맞나요?

송고시간2021-09-16 07:00

beta
세 줄 요약

최근 한 페이스북 이용자는 흑인 남성이 등장하는 영상을 시청하다 '영장류에 관한 영상을 계속 시청하겠습니까'라는 자동 알림을 받았습니다.

최근 뉴욕타임스에 따르면 페이스북은 "용납할 수 없는 오류"라며 "이런 일이 재발하지 않도록 근본 원인을 파악 중"이라고 밝혔습니다.

인공지능의 인종차별 논란은 해를 거듭하며 지속해서 발생하고 있습니다.

요약 정보 인공지능이 자동으로 줄인 '세 줄 요약' 기술을 사용합니다. 전체 내용을 이해하기 위해서는 기사 본문과 함께 읽어야 합니다. 제공 = 연합뉴스&이스트에이드®
이 뉴스 공유하기
URL이 복사되었습니다.
본문 글자 크기 조정

유튜브로 보기

https://youtu.be/8Qpfq8PHfLA

(서울=연합뉴스) 최근 한 페이스북 이용자는 흑인 남성이 등장하는 영상을 시청하다 '영장류에 관한 영상을 계속 시청하겠습니까'라는 자동 알림을 받았습니다.

해당 영상은 흑인 남성이 백인 시민·경찰관들과 언쟁하는 내용으로 원숭이와 같은 영장류와는 관련이 없었는데요.

최근 뉴욕타임스에 따르면 페이스북은 "용납할 수 없는 오류"라며 "이런 일이 재발하지 않도록 근본 원인을 파악 중"이라고 밝혔습니다.

그러면서 "인공지능(AI)을 많이 개선했지만 아직은 완벽하지 않다"고 덧붙였는데요.

인공지능의 인종차별 논란은 해를 거듭하며 지속해서 발생하고 있습니다.

특히 구글, 페이스북 등에서 제공하는 자동 사진 분류 서비스에서 흑인을 제대로 인식하지 못하는 등의 문제가 해결되지 않고 있는데요.

이 서비스는 사진에서 미간, 눈 깊이, 코 등의 특징점을 찾고 다른 사진과의 유사점을 비교·분석합니다. 이 과정에서 인공지능이 흑인과 영장류의 피부색 등을 고려해 얼굴의 유사한 특징으로 '일치한다'고 판단한 건데요.

이수진 세종대 인공지능학과 교수는 "얼굴 특징을 잡아서 일치하는지로 결론 내린다"며 "(흑인이 영장류로 분류된 건) 어떤 영장류를 넣었더니 일치하는 점들이 많은 것이다. 우리 얼굴은 3차원인데, 사진의 2차원 이미지 정보를 기준으로 특징점들을 비교해 판단하는 것"이라고 설명했습니다.

앞서 지난 2015년 구글 포토에선 흑인 사진에 '고릴라'란 태그가 붙어 논란이 일었죠.

구글은 이에 대한 조치로 기능 개선 대신 문제의 키워드·분류를 삭제했습니다.

또 지난해 '데이터 레이블링'(data labeling·인공지능을 만드는 데 필요한 학습 데이터 입력 작업) 기술을 접목한 '구글 비전 AI'도 밝은 피부의 사람이 들고 있는 체온계는 있는 그대로, 흑인이 손에 든 체온계는 총으로 인식해 비판이 제기됐죠.

그뿐 아니라 지난달 '트위터 알고리즘 편향 공모전'에선 트위터의 대표 사진 고르기 알고리즘이 편향성을 보였습니다. 대표 사진에서 흑인, 이슬람교도, 장애인, 노인을 자동 탈락시키는 것으로 나타났는데요.

트위터에 사진을 올릴 때 인공지능이 중요한 부분을 선택해 잘라내는 '자동 이미지 자르기 기능' 역시 마찬가지였습니다. 흑인보다는 백인을, 남성보다는 여성을 선택했죠.

이밖에 데이터 학습을 통한 알고리즘으로 일상에서 피해를 본 사례도 있습니다.

영국의 인공지능 비자 신청 프로그램은 백인보다 비백인이나 특정 국가 출신의 신청자들을 더 오래 심사하거나 거절했습니다. 이에 영국은 지난해 해당 프로그램을 중단했습니다.

미국 미시간주에선 지난해 한 흑인이 얼굴 인식 시스템 착오로 경찰에 억울하게 체포되기도 했습니다. 인공지능 시스템이 흑인 얼굴 간 분석·구별을 정확히 해내지 못한 것인데요.

이에 대해 전문가들은 인공지능이 학습하고 추론하는 데이터양의 불균형에 원인이 있다고 지적합니다. 일례로 백인 남성 데이터는 많고, 흑인 여성은 적어 인공지능이 흑인 여성 사진을 제대로 분류하지 못하는 식인데요.

국내 인공지능 분야 선구자로 불리는 김진형 인천재능대 총장은 "데이터가 고르게 분포돼 있지 않은 것인데, 통계적으로 샘플링 바이어스(sampling bias)라고 한다"며 "데이터에 편견이 있으면 그대로 알고리즘에 전이되고 다시 말해 인공지능으로 전이되는 것이다. 어떻게 하면 편견이 없도록 학습할 것인지에 대한 연구를 많이 하는데 데이터에 편견이 있어 극복하기 쉽지 않다"고 설명했습니다.

이런 인공지능의 한계를 극복하려면 개발자의 윤리적 감수성과 철저한 검증, 편향성을 줄여나갈 과학적 연구를 병행해야 하는데요.

김진형 총장은 "데이터 수집부터 신중해야 한다"며 "개발자들은 윤리적으로 일관성을 갖고 검증해야 한다. 또 편견을 자동으로 알려줄 방법이 없을지 과학적 방법에 대한 연구를 많이 하는데, 이런 것들이 조금씩 발전할수록 편견이 있단 걸 알아내기도, 그걸 고치기도 쉬워진다"고 말했습니다.

이은정 기자 황지원 인턴기자 김지효

[이슈 컷] 흑인에 유독 가혹한 인공지능…정말 똑똑한 것 맞나요? - 2

mimi@yna.co.kr

댓글쓰기
에디터스 픽Editor's Picks

영상

뉴스