코리아교육연구소왜색화투몰아내세국민운동본부 l 대한민국놀이문화연구소서울지하철

 

코리아교육신문

 

The News of Korea Educatlon

 

HOME

유아교육

초등교육

중학교육

고교교육

공부기술

논술 면접

특목고 영재

사진경치

학부모 교육

생활지혜

 

The News of Korea Education

 

 AI가 내 감정을 제대로 알 수 있을까?

 

사람의 얼굴을 보고, 이를 토대로 감정을 분석하는 기술이 많아졌다. 대부분의 기술이 행복과 슬픔, 놀람 등 기본 감정으로 이름 붙여진 대규모 얼굴 데이터를 학습한다. 그리고 각 사진으로부터 눈, 코, 입, 얼굴 근육 등의 특징을 찾아 해당 감정과 짝지어 훈련한다. 그 기반에는 얼굴 움직임을 감정과 연계시킨 ‘FACS(facial action coding system)’ 모델과 감정이 신체로부터 비롯된다는 내용의 ‘신체표지가설(somatic marker hypothesis)’이 자리하고 있다. 각각 폴 에크먼과 안토니오 다마지오가 만든 모델과 개념인데, 삼십년 넘게 감정인식 기술에 대한 주요 이론으로 자리하고 있다.  
 

이러한 학문적 성과를 바탕으로 훈련된 AI는 다양한 분야에서 활용되고 있다. 무인자동차에서는 설치된 캠을 통해 탑승자의 얼굴을 촬영하고, 이로써 그의 감정이나 의도를 파악하는 용도로 기획되고 있다. 의료분야에서는 자폐 아동들에게 타인의 감정을 학습시키는 용도의 감정인식 스마트 글래스를 개발하기도 했다. 교육 현장에서도 ‘지루해하는 아이’를 찾아내는 기술로써 활용될 가능성이 열려있다. 그리고 업무 현장에서는 고객 경험(CX)에서 해당 기술이 다양하게 쓰일 전망이다.
 

얼굴로 감정을 읽는 것에 대한 의문

하지만 얼굴로 사람의 감정을 아는 것이 가능한가에 대한 의문이 속속 제기되고 있다. 일명 ‘구성된 감정 이론(Theory of Constructed Emotion)’ 학파가 그 중심에 있다. 감정은 사회문화적 영향 아래에 개인의 경험을 바탕으로 생성되었다는 것이 이들의 핵심 주장이다. 따라서 개인에 따라 감정을 느끼는 방식이 다르고, 그것이 드러나는 표정이나 얼굴 생김새, 각종 신경 반응 또한 제각기 차이가 날 수밖에 없다는 것이다. 그러니 표정만 보고 그 사람의 감정을 ‘행복’이나 ‘슬픔’, ‘놀람’ 등으로 판단할 수 없다는 것이 이들의 주장이다. 이들이 우려하는 것은, 감정인식 기술이 더 널리 쓰여서 어느덧 각종 인프라에 스며드는 상황이다. 예를 들어 환호에 찬 축제 현장에서 단지 ‘보편적으로 볼 때 화난 표정’을 짓는다는 이유로 테러리스트로 지목될 수도 있다는 것이다. 또한 슬픔을 밖으로 드러내지 않는 사람들을 보고, 저들은 슬퍼하지 않는다고 기계가 해석할 수도 있다. 무인 택시에 타려는 승객의 표정이 어쩐지 화가 나 보인다는 이유로, 해코지를 두려워한 나머지 승차 거부가 발생할 수도 있다. 고객 서베이를 할 때, 고객의 꾹꾹 눌러 참는 진짜 웃음을 ‘가짜 웃음’이라고 판명해 고객 만족도를 0점 처리하는 일이 벌어질 수도 있다. 이들 학파의 주장대로 ‘감정은 보편적으로 드러나는 것이 아니기 때문’이다.     

개인화로 가자니 초상권이 문제    

 패턴 인식을혼란스럽게 하는 천을 둘러 얼굴 인식 기술을 무력화하는 방법이다. 특히 각종 시위현장에서 쓰이고 있다고 한다. [사진 트위터]

패턴 인식을혼란스럽게 하는 천을 둘러 얼굴 인식 기술을 무력화하는 방법이다. 특히 각종 시위현장에서 쓰이고 있다고 한다. [사진 트위터]

그렇다면 ‘구성된 감정 이론’을 반영해 개인의 경험과 개인이 속한 문화를 중심으로 그에게 딱 맞춘 감정 인식 도구를 만들 수도 있지 않을까? 여기에 대해서는 초상권 이슈가 가장 큰 문제로 떠오른다. 빅데이터와 달리, 개인화가 되는 순간 그 사람의 사진은 물론 관련 정보도 한가득 필요하다. 얼굴은 우리 신체 가운데서도 가장 눈에 띄게 개인화된 정보 그 자체다. 그래서 몇몇 사람들은 밤에도 선글라스를 끼고 다니며 주변의 각종 CCTV에 얼굴이 노출되는 것을 방지한다. 혹자는 ‘기계의 눈’을 어지럽게 만드는 패턴 가득한 천을 두르기도 한다. 이 때문에 일각에서는 최대한 사람의 얼굴을 비식별화해가며 감정을 알아차리려는 패턴인식 방법도 제시되고 있다. 그마저도 개인 인권 침해 소지가 있다며, 얼굴 데이터 자체를 다루지 않겠다고 선언하는 이들도 늘고 있다. 대표적인 경우가 IBM이다. 얼굴 관련 기술이 발전하면 할수록 인종에 대한 편견을 가속하고, 개인에 대한 감시 또한 한 층 더 심화할 것이라며 아예 관련 연구나서비스하지 않겠다고 불과 며칠 전 밝혔다.   
 
얼굴을 분석해 감정을 알아내려는 시도는 여전히 지배적 방법론으로 자리매김하고 있다. 대안이 딱히 있는 것도 아니고, 기술적인 면에서도 굉장히 효율적이기 때문이다. 지금도 마이크로소프트와 아마존웹서비스, 구글 등은 물론 관련 분야 학자들 다수가 ‘얼굴로 감정을 읽을 수 있다’는 폴 에크먼의 감정 이론을 기반으로 서비스와 연구를 지속하고 있다. 에크만은 자신의 이론을 받치는 근거들을 지속해서 연구하는 한편, 구성된 감정 이론에서 제기한 여러 반론은 과학적 근거가 부족하다고 비판하고 있다.
 
감정 인식 기술, 더 크게 보면 얼굴 인식 관련 기술은 현재 과도기에 놓여 있는 것으로 판단된다. 지배적 이론에 대해 신뢰도 측면에서는 지속해서 반박이 나오고 있다. 또한 데이터 확보 측면에서는 윤리적인 이슈에 휩싸여 있다. 신기하다고 해서 무턱대고 도입하기에는 충분히 리스크가 있는 기술이다. 동시에 무궁무진한 발전 가능성도 살아있는 분야다. 지속해서 흐름을 살펴볼 필요가 있다.  


[저료출처: 중앙일보 https://news.joins.com/article/23802361 ]

 

 

 

일제잔재 퇴치위해

 왜색화투 몰아내세

Japanese Hwatu Arirang

We should ban the Japanese Hwatu

청실홍실우리화투

한국화투연구소

Yes Go 청실홍실우리화투

자주가는 사이트

 

사설/칼

유아교육

해외여행

세계 날씨

로또복권

금주날씨

희귀병

고속버스

한국철도

지하철

많이 본 뉴스

눈 건강 지키는 예방법

혼내기 보다는 사랑과 관심을

자녀를 감동시키는 아버지가 되어라

신종 코로나바이러스 감염증 검사 관련 FAQ