AI의 위험 -4-
AI의 위험 -4-
최근에는 기업의 채용 활동에 AI를 활용하는 것도 많아졌다. 그 AI가 판단을 잘못 부당하게 채용되지 않았던 사람이 나타나면 누가 그 책임을 갖는가.
실제로 미국 Amazon.com이 개발 한 인재 채용 AI는 기술계 직원 (대부분 남성)의 이력서를 교사 데이터로 한 결과 여성을 부당하게 낮게 평가하는 편견을 갖게되었다. Amazon은이 결과에 실망하고 AI를 포기하고 개발 팀도 해산했다고 로이터에서 보도되었다 . 하지만 그들처럼 자체적으로 오류를 바로 잡아주는 기업 만은 아니다.
불행히도,이 점에 대해서는 언론이나 연구 기관 등의 제삼자에 의한 조사 분석을 기대할 수 밖에없는 상황이다.
채용 분야는 비영리 단체의 Upturn이 지금 판매되고있는 주요 인재 채용 알고리즘을 분석하고 "기본 상태로는 바이어스 될 우려가있는 것으로 나타났다"고 발표 했다. 덧붙여서 Upturn는 같은 보고서에서 기존의 법률에서는이 문제를 단속 할 수 없다고 설명하고있다.
무서운 것은 그러한 편견에 기업주의없는 원인으로 " AI가 말하는 것을 무턱대고 믿고 버리는 "경향이 있다고 지적되고 있다는 점이다. 앞으로 더욱 AI 응용 프로그램이 인기 "AI는 올바른 판단을 해주는 '라는 의식이 정착 해 버리면, AI에 의한 피해의 인식은 더욱 어려워지고 만다. 그러기 위해서라도 다음에 소개하는, AI 응용 프로그램에서 해를 만들어내는 구조를 없애 대응이 필수적이다.
복구 : 해를내는 구조를 제거
마지막은 복구 이다. 자연 재해의 경우는 말 그대로 원래의 사회와 일상 생활을 되 찾는 것을 가리 키지 만, 여기에서는 "AI가 안고있는 문제를 분석하고 필요한 수정을하는 것"이라고 파악하고 싶어요.
복구의 큰 장애물은 본 연재의 제 5 회 에서 해설 한 "블랙 박스 문제" 이다.
"설명 할 수 AI"
기계 학습을 사용하면 "왜 AI가 그 판단을했는지"를 모두 설명 할 수 없을 가능성이있다. 동물이 찍혀있는 대량의 이미지 데이터를 교사 데이터로주고 사진에 찍히는 동물을 판별하는 AI를 완성 시켰다고하자. 그 AI가 특정 이미지를 인식하고 "고양이가 찍혀있다"고 판단하면 이미지의 어디를보고 고양이라고 판단했는지, 인간은 모른다. 이것이 AI 블랙 박스 문제이다.
이것으로는 AI의 판단에 의해 문제가 발생해도 그것을 어떻게 해결해야하거나 해결이 가능한지를 인간이 판단하는 것은 어렵다.
감 재 이야기에 가깝지만 어떤 눈에 보이는 피해가 발생했을 때 AI가 거기에 어디까지 관여하고 있는지를 파악하는 것도 곤란을 동반한다. AI를 사용 인간 측의 설정 실수로 문제가 생길 수도있을 것이다. 따라서 많은 연구자들이 "설명 책임을 완수 AI」의 실현에 노력하고있다.
판단의 근거를 인간도 이해할 수있는 수식이나 글로써 표현하는 연구가 진행되는 동안, 그것을 구현하려면 AI를 개발하는 기업의 부담이 크다는 문제도있다. 모처럼 AI 발견하게 중요한 지식을 모두가 알 형태로 외부에 공개하기로 저항을 나타내는 기업도 많을 것이다.
그래서 기술적 인 연구와 병행하여 '설명 책임을 완수 AI'방향에 대해 국가 수준에서 규칙을 정비하려는 움직임이 생겨나 고있다. 이 점에 대해서도, 자세한 내용은 다음 기사에서 소개한다.