AI의 위험 -3-
AI의 위험 -3-
감 재 : 피해의 발생을 파악하고 그것을 감소
다음은 AI가 만들어 낸 피해를 줄이기 감 재 하지만 원래 AI의 존재에 인간 의식하지 못한 경우도 많다.
예를 들어, AI가 동영상에 등장하는 인물의 표정이나 음성을 마음대로 가공하고 있으면 어떨까. 본인은 발언하지 않는 것을 '발언했다 "로되어 버리면 - 적어도 시청자는 눈치 채지 못한 것이 아닐까.
화제의 '딥 가짜 "
이것은 결코 진짜 아니다. 지금 많은 언론에서 " 딥 가짜 '라는 행위에 대한 우려가 제기되고있다. BuzzFeed가 제작 출판 한 다음 영상을 보신 사람도 많을 것이다. 이것은 AI를 활용 해 만든 오바마 전 대통령의 '가짜 동영상'이다.
딥 러닝과 같은 고급 AI 기술을 사용하여 매우 사실적인 가짜 동영상을 만드는 것이 딥 가짜이다.
위의 그림과 같이 경고 나 농담으로 작성되는 경우도 있고, "성인 영상과 유명 인사의 얼굴을 결합」 「공격하려는 정치인의 실수를 가장"등 더 악의가 담겨있는 경우도 있다. 그들은 매우 정교하게 만들어져 얼핏 보면 인간도 분간 할 수 없다.
최근에는 AI 자체에 이런 사진 영상의 가공을 판정하는 연구가 진행되고있다. 미국 Adobe와 캘리포니아 대학은 "Photoshop에서 가공 된 인간의 얼굴 '을 감지하는 도구를 공동 개발 했다. 심층 학습의 일종 인 '회선 신경망 "(CNN)을 활용하고 있으며, 인간에 비해 2 배의 정밀도로"가공 된 얼굴 "을 구별된다고한다.
가짜 뉴스의 세계에서는 "하나의 가짜 뉴스를 꼬박 AI로 만드는 '기술도 개발되고있다. AI를 연구하는 비영리 단체의 OpenAI는 올해 2 월, 매우 정교한 문장을 생성하는 언어 모델 "GPT-2 '를 발표 했다.
원래는 가짜 뉴스의 작성을 목적으로 한 기술은 아니지만, 뉴스 시작 부분의 텍스트를 줄뿐 나머지 부분을 마음대로 보완하고 자연스러운 문장을 만들 수 버린다. OpenAI 기술의 악용을 우려, GPT-2의 오픈 소스 화하지 않고 논문 발표에만 머무르게된다 (즉 자율 규제).
이러한 텍스트 계의 페이크에 대해서도 AI 자동 감지시키는 노력이 진행되고있다. 예를 들어, MIT-IBM Watson AI 연구소와 하버드 대 자연 언어 처리 연구팀이 실시한 실험 에서는 GPT-2가 작성한 문장과 인간이 만든 문장을 AI에 비교시켰다. 실험에서는 GPT-2가 작성한 문장에 대한 AI는 어느 정도까지 "기계에 의해 생성 된 가능성이있다"고 지적 수 있었다고한다.
제삼자의 조사를 의지 할 수 밖에없는 상황
그러나 이러한 탐지 도구를 가지고 있지 않거나 원래 AI를 사용한 응용 프로그램의 정보를 외부에 공개되지 않으며하려면 어떻게하면 좋은 것일까.