골짜기일까, 정상일까

골짜기일까, 정상일까

골짜기일까, 정상일까
05/28/2020
/ 박평종

캔디

어린 시절 만화 <캔디 캔디>를 즐겨봤는데, 돌이켜 생각해보면 얼굴의 절반 가까이를 덮어버릴 정도로 큰 눈이 이상하다는 생각은 하지 않았던 것으로 기억한다. 오히려 ‘큰 눈’은 선망의 대상이었던 것 같다. 2019년에 개봉한 영화 <알리타: 배틀 앤젤>에 등장하는 사이보그 알리타도 과도하게 큰 눈을 가졌지만, 그 점이 오히려 관객들에게 호감을 불러일으켰다고 한다. 한편 사람과 비슷하게 생겼어도 왠지 불편하고 때로는 불쾌하며 심지어 두려움을 불러일으키는 경우가 있다. 호러 영화에 등장하는 각종 유사인간 캐릭터나 좀비가 그렇다. 이들은 사람과 닮았음에도 혐오와 공포의 대상이다. 이처럼 사람과 생김새는 유사하나 ‘기이한’ 행동을 하는 존재로부터 받는 특이한 감정을 심리학자들은 ‘불쾌한 골짜기(Uncanny valley)’ 이론으로 설명한다. 물론 모두가 동의하지는 않는다. 본래 로봇공학 분야에서 나온 이 이론의 요지는 다음과 같다. 어떤 존재(예컨대 로봇)가 인간을 닮을수록 호감이 증가하다가 어느 순간부터 급격히 불쾌감으로 바뀌며 다시 원래의 호감을 회복한다는 것이다. 불쾌감은 인간과의 유사함에 대한 기대가 꺾이는 순간, 말하자면 비슷하게 생겼는데 어색한 행동을 보이는 지점에서 발생한다. 왜 그럴까? 불쾌감을 불러일으키는 이유가 중요하다. ‘불쾌감’으로 번역되는 ‘언캐니’의 원인이 핵심이라는 뜻이다.

‘골짜기’ 이론을 제안한 일본의 로봇공학자 모리 마사히로는 프로이드의 언캐니 개념에서 이 발상을 끌어왔다. 프로이드의 언캐니는 독일어 ‘운하임리히(unheimlich)’의 번역어다. 이 단어는 ‘하임리히(heimlich)’와 한 쌍으로 프로이드는 이 단어가 지닌 여러 의미 중 ‘익숙함/낯설음’에 중점을 두고 해석한다. 말하자면 언캐니는 원래 익숙했던 것이 갑자기 익숙하지 않게, 낯설게, 섬뜩하게 인식될 경우 발생한다는 것이다. 프로이드는 이 개념을 한스 호프만의 <모래인간> 해석에서 끌어왔는데, 복잡하고 난해한 해석의 여러 가지들을 쳐내고 ‘골짜기’ 이론과의 관련성만 따지자면, 여기에는 주술적 의미가 깔려있다. 언캐니가 발생하는 여러 원인 중 대표적인 예는 물건(예컨대 인형)이 특정 상황에서 살아있는 생명처럼 인식되는 경우다. 이를 프로이드는 현대인이 ‘이미’ 극복한 애니미즘적 사고가 ‘부활’한 것으로 본다. 말하자면 애니미즘이라는 ‘주술적 사고’는 완전히 극복되지 못한 채 ‘무의식’에 남아있다는 것이다.

불쾌한 골짜기(Uncanny Valley)

본래 인형은 생명이 없는 물건이며, 그것이 ‘하임리히’, 즉 익숙한 관념이다. 그런데 그 ‘죽어있는’ 인형이 어느 순간 생명체처럼 느껴질 때 ‘운하임리히’, 즉 익숙하지 않은 관념을 건드린다. 당초의 익숙한 관념이 동요하면서 낯설음은 기이함으로, 나아가 섬뜩함으로 바뀐다는 것이다. 독일 작가 한스 벨머(Hans Bellmer)의 <인형> 작업에 대한 로잘린드 크라우스의 해석도 그런 맥락에 있다. 좀비가 전형적인 예다. 시체가 살아 움직인다는 허황된 발상에도 불구하고 언캐니는 주술적 관념의 찌꺼기 덕분에 이미 반세기 전 달에 토끼가 없다는 사실을 확인한 현대인의 정서를 여전히 건드리고 있다. 물론 좀비를 믿지는 않지만 말이다. 로봇에게 느끼는 언캐니도 그렇다. ‘골짜기 이론’의 관점에서 보면 로봇이 사람과 비슷할수록 호감은 당연히 증가하는데, 어느 순간 어색한 행동을 보이면 익숙함이 기이함으로 바뀌는 것이다. 몇 년 전 한국을 방문했던 휴머노이드 ‘소피아’도 이 ‘골짜기’ 근처 어딘가에 있다.

최근 논란이 되고 있는 리얼돌(realdoll)도 이 ‘골짜기’ 안에 있다고 보는 시각이 있다. 리얼돌은 그냥 쉽게 섹스로봇이다. 킬러로봇도 개발되고 있는 마당에 섹스로봇이 없을 수 없다. 그런데 리얼돌의 상품성이 크다면, 다시 말해 이 ‘섬뜩한’ 인형을 찾는 사람이 많다면 ‘골짜기’ 이론은 잘못됐거나 리얼돌은 언캐니하지 않거나 둘 중 하나다. 아, 다른 가능성 하나가 더 있다. 언캐니를 ‘즐기는’ 경우다. 그 때 리얼돌은 호감도 그래프의 ‘골짜기’가 아니라 정상에 있다.

한스 벨머, 인형

리얼돌

박평종 (중앙대학교 인문콘텐츠연구소 연구교수)

감정교육이 될까?

감정교육이 될까?

감정교육이 될까?
05/13/2020
/ 박평종

기욤 뒤셴 드 불로뉴, 인간 표정의 메카니즘, 1862

플로베르는 <감정교육>에서 주인공 프레데릭 모로가 19세기 프랑스 자본주의 사회에서 성장해 나가는 과정을 특유의 사실주의적 문체로 담담히 묘사하고 있다. 왜 ‘감정교육’일까? 청년 프레데릭은 고향인 노장(Nogent)을 떠나 자신의 야망을 실현하기 위해 파리로 상경한다. 출세하고자 진입한 사교계에서 권력의 암투를 보기도 하고, 정치적 이상에 따라 2월 혁명을 준비하는 동료들을 만나 이상과 현실 사이에서 갈등을 겪기도 하며, 사랑하는 여인을 만나지만 현실에서는 그 사랑을 이룰 수 없어 결국 영원한 이별을 선언하기도 한다. 이 모든 과정이 결국 한 ‘사회적 인간’으로 살아가는 데 필요한 감정을 학습하는 기간이었던 셈이다.

그런데 대관절 감정을 ‘학습’한다 함은 무슨 뜻일까? 감정이란 외부 상황이나 자극에 대해 개체가 즉각 취하는 심리적 반응 아니던가? 감정에는 판단이나 성찰이 수반되지 않기에 ‘학습’에 요구되는 일정한 시간이 필요치 않다. 말하자면 감정은 학습하는 것이 아니라 이미 ‘축적된’ 학습에 따른 즉각적 반응이라는 것이다. 그리고 그 반응은 표정이나 몸짓, 행동 등으로 표현된다. 따라서 이 표현의 양상들을 살펴보면 감정의 상태를 알 수 있다.

최근 인공지능 분야의 화두는 감정 인식이다. 데이터를 분석, 종합하여 최적의 솔루션을 제시하는 데 그치지 않고 인간의 감정을 이해하여 사용자들에게 훨씬 정교한 서비스를 제공하겠다는 것이다. 이 발상에 따르면 정확한 감정 인식을 통해 스스로 감정을 표현하는 로봇 제작도 가능하다. 인공지능이 감정을 학습하는 방법은 다양하다. 감정은 목소리에도 실리고, 글에도 나타나며, 얼굴 표정에도 드러나기 때문이다. 특히 표정은 ‘내면의 목소리’가 표출되는 가장 구체적인 양태다. 감성 인공지능의 가능성을 보는 이들은 예컨대 AI가 수많은 표정 이미지를 딥러닝으로 학습함으로써 어떤 표정이 어떤 감정 상태에 대한 반응인지 판단할 수 있다고 생각한다. 그리고 표정은 기계적인 방식으로 조합해낼 수 있다.

기욤 뒤셴 드 불로뉴, 인간 표정의 메카니즘, 1862

찰스 다윈, 인간과 동물의 감정표현, 1872

이런 발상이 처음은 아니다. 19세기 프랑스의 신경의학자 뒤셴 드 불로뉴(Guillaume Duchenne de Boulogne)는 얼굴 표정이 특정 안면근육의 이완과 수축의 결과물이며, 따라서 국부적인 전기 자극으로 표정을 만들어낼 수 있다고 여겼다. 그는 실험 과정을 사진으로 기록하면서 표정과 외부 자극의 상관관계를 연구했고, 그 결과 핵심 감정 6개(분노, 공포, 놀람, 혐오, 행복, 슬픔)를 추출하고, 다시 복합감정 60가지를 구분했다. 표정과 감정에 대한 연구는 다윈의 <인간과 동물의 감정표현(1872)>에서 한층 심화된다. 그에 따르면 감정은 진화의 결과물로 종의 보존에 필요한 개체의 반응이 세대를 거쳐 전수되면서 귀착된 것이다. 그리고 표정은 특정 감정에 대해 단일 종이 공통으로 갖고 있는 고유한 신체 반응이다. 예컨대 배설물이나 썩은 음식에 대해 역겨운 감정을 갖는 것은 그 물질을 섭취했을 때 개체 보존이 위협받는 상황을 ‘미리’ 방지하기 위함이다. 표정은 일종의 ‘시각신호’로 특정 감정을 동일종의 다른 개체들에게 효과적으로 전달할 수 있는 수단이다. 다윈은 감정이 진화의 산물임을 입증하기 위해 인간과 다른 영장류의 ‘표정’이 지닌 유사성을 강조하기도 한다. 여기에 활용된 도판의 일부는 불로뉴의 연구에서 가져온 것이다.

감정과 표정이 일정한 상관관계를 갖고 있다면 감정 학습은 ‘이론적으로’ 가능하다. 그런데 기계가 수많은 표정을 학습하여 하나의 표정이 어떤 감정에 대응하는지 알 수 있다 할지라도 그 감정 자체를 알 수는 없다. 실제 경험하지 않았기 때문이다. 예컨대 <감정교육>의 프레데릭이 아르누 부인과 영원히 결별하면서 느꼈던 그 감정, 비통하고 애절하며 가슴이 미어지는, 말로 온전히 형언할 수 없는 그 감정이 어떤 것인지는 겪어본 자만이 알 수 있는 그런 것이다. 아마도 언젠가는 기계가 감정을 학습하여 판별도 하고 나아가 표정을 통해 특정 감정을 표현하는 날이 올 것이다. 하지만 그 자의 표정은 결국 포커페이스다. 감정은 머리로 배우는 것이 아니기에.

인공지능의 감정 판독

박평종 (중앙대학교 인문콘텐츠연구소 연구교수)

달면 삼키고 써도 삼키는…

달면 삼키고 써도 삼키는…

달면 삼키고 써도 삼키는…
04/29/2020
/ 박평종

어린 시절 양철지붕 집에 잠시 살았던 적이 있다. 양철지붕 하면 테네시 윌리암스의 <뜨거운 양철지붕 위의 고양이>가 떠오르는데, 실제 더운 한낮에는 집안에 오래 머물기 쉽지 않았다. 그런데 열기보다 더 괴로운 것은 비 내릴 때의 소음이었다. 빗방울이 거칠수록 소음도 커서 지붕을 걷어내 버리고 싶은 마음이 들 정도였다. 소음이란 무엇일까? 소음은 소리의 크기와 상관없다. 소리가 커도 듣기 좋은 경우가 있고 속삭여도 신경을 거슬리는 소리가 있다. 18세기 생리학자 르 카(Le Cat)는 소음을 “규칙을 찾을 수 없는 음”, 따라서 “그 속성을 연구할 수 없는 음”으로 정의한다. 말하자면 불규칙하여 질서가 없는 소리, 제멋대로 돌아다니는 소리라는 것이다. 안정과 평온을 바라는 사람에게는 듣고 싶지 않은 소리다. 허나 내가 원치 않는다고 해서 귀가 그 소음을 필터링하지는 못한다. 감각기관은 의지의 권한 밖에 있다.

독일 매체이론가 키틀러는 소위 ‘기록시스템 1900’의 핵심축인 축음기가 소리정보를 ‘기록’하면서 대단히 중요한 변화가 생겨났다고 지적하는데, 그 변화의 본질은 소음의 기록에 있다. 이는 시간을 ‘통째로’ 기록하면서 생겨난 현상이다. 인간은 듣고 싶은 음과 듣기 싫은 음을 구분하여 후자를 ‘배제’한다. 그렇게 소음은 인류 공동체에서 축출당해 왔다. 이는 소리뿐 아니라 모든 정보의 기록에 동일하게 적용된다. ‘기록시스템 1900’ 이전, 키틀러의 용어로는 기록시스템 1800, 즉 문자가 모든 정보의 기록을 ‘독점’하던 시대에 정보의 누락은 필연적이었다. 말하자면 문자로 정보를 기록할 때 인간은 선택과 배제를 동시에 행한다. 원치 않는 정보, 불필요한 정보, 유용하지 않은 정보는 필터링 되어 역사 속에서 증발해버린다. 결국 우리가 알고 있는 역사란 기록으로 남은 역사다.

악보의 세계도 크게 다르지 않다. 예컨대 화성악에서 완전5도는 가장 ‘아름다운’ 음정으로 고전주의 시대에는 소음의 판별기준이었다. 그러나 축음기가 모든 소리를 온전히 기록하기 시작한 이후 소음도 악보 안으로 들어온다. ‘듣기 싫었던’ 음을 듣게 되는 셈이다. 그렇게 축음기가 열어놓은 소음의 ‘질서’가 19세기 이후의 세계를 지배한다. 쇤베르그의 무조음악은 물론이고 존 콜트레인의 ‘고막이 터질 듯한’ 파열음도 음악의 일부가 됐다.

소리라는 청각정보가 그렇다면 이미지라는 시각정보는 어떨까? 기록시스템 1900에 키틀러는 영화를 추가했지만 소음의 기록이라는 관점에서 보면 영화보다 사진이 그 시스템에 더 적합해 보인다. 카메라는 사람의 눈과 달리 보기 싫은 것도 기록한다. 렌즈 앞에 펼쳐진 모든 것을 ‘공정하게’ 감광판에 각인시키는 이른바 기계의 눈 덕이다. 물론 눈의 구조도 카메라 렌즈의 그것과 유사하기 때문에 감각기관으로서의 눈은 모든 것을 본다. 그래서 끔찍한 장면 앞에서 눈을 감아버린다거나, 눈을 돌려버린다고 말하지 않던가. 눈은 의지와 상관없이 눈앞에 펼쳐지는 모든 것을 볼 수밖에 없는 것이다. 문제는 망막에 맺힌 이미지가 시신경을 통해 뇌로 전달되어 인식이 이루어지는 과정에서 배제가 발생한다는 점이다. 그 덕에 우리는 뇌 용적의 한계에도 불구하고 기억을 갱신할 수 있다.

그림과 사진의 본질적인 차이도 여기에 있다. 그림에서는 문자처럼 선택과 배제의 원리가 작동한다. 내가 보고 싶은 것만 그리기 때문이다. 반면 사진에서는 내가 찍고 싶지 않은 것도 찍힌다. 축음기가 소음까지 기록하듯 카메라도 불필요한 정보를 기록하는 셈이다. 축음기 덕에 ‘소음의 세계’를 알게 된 것처럼 우리는 카메라 덕에 ‘시각적 무의식’의 세계(벤야민)를 볼 수 있게 됐다. 그러나 배제의 원리 탓에 보지 못했던 세계가 사진과 더불어 열렸음에도 불구하고 사람의 눈은 여전히 보려 하는 것만 본다. 그런데 기계가 이미지를 판독하기 시작하면서 변화가 생겨난다. 특히 AI 기반 이미지 판독시스템의 진화로 상황은 급변하기 시작했다. 영상의학 분야는 물론이고 자율주행자동차, 공항검색대 등 기계의 눈은 도처로 확장되고 있다. 물론 아직 이 기계의 눈은 여러모로 불완전하다. 예컨대 모든 시각적 요소를 동일하게 취급하는 탓에 기계는 불필요한 시각정보도 식별의 요소로 간주한다. 가령 강아지와 비슷한 형태의 치킨을 강아지로 판독하거나, 머핀의 건포도를 강아지의 눈으로 인식하는 경우다. 음성처리에서도 기계는 소음을 무시하지 못해 애를 먹는다. 사람은 달면 삼키고 쓰면 뱉지만 기계는 써도 삼킨다는 뜻이다. 약인지 독인지도 모른 채.

 

박평종 (중앙대학교 인문콘텐츠연구소 연구교수)

누구냐, 넌

누구냐, 넌

누구냐, 넌
04/15/2020
/ 박평종

딥 페이크 논란이 뜨겁다. 지난달에는 “딥 페이크 영상의 제작, 유통행위를 처벌하는 성폭력 범죄의 처벌 등에 관한 특례법” 개정안, 일명 딥 페이크 처벌법이 국회에서 통과됐다. 적대적 생성신경망(GAN)을 활용한 이 이미지 합성 기술의 잠재적 위험성은 오래 전부터 제기돼 왔는데*, 최근 불거진 소위 n번방사건으로 세간의 관심이 폭증한 모양새다. 사실 GAN알고리즘의 활용범위는 매우 넓고 긍정적 가능성도 무궁무진하다. 인공지능의 기계학습에서 GAN은 ‘대세’며, 그 원리를 응용한 다른 알고리즘도 다양해지고 있다. 기계학습을 통한 인공지능의 문제해결 능력은 여러 분야에서 검증된 바 있고, 점차 그에 대한 의존도는 높아지는 추세다. 따라서 딥 페이크는 경계하되 GAN을 버릴 수는 없다. 본래 악한 기술은 없기에. 테크놀로지는 중립적이나 결국 그것을 도구화시키는 인간이 문제다. 딥 페이크가 GAN의 본질은 아니라는 얘기다.

GAN은 이미지 합성기술이 아니라 원래 이미지 ‘생성’ 기술로 탄생했다. 한편 사진의 합성은 두 장 이상의 원본을 하나로 ‘붙이는’ 기술이다. 아날로그 시대의 포토몽타주나 포토샵을 활용한 디지털 콜라주가 그 예다. 그런데 GAN은 원본을 학습한 후 생성자와 판별자가 서로 경쟁하며 ‘새로운’ 이미지를 생성하는 구조다. 원본은 학습용일 뿐 최종 결과물은 어디에도 없는 다른 이미지, 말하자면 그 자체가 원본인 이미지다. 포르노 배우의 몸에 유명 연예인의 얼굴을 합성하는 ‘악의적’ 딥 페이크는 이 ‘고도의’ 알고리즘을 도구적 기술로만 활용하는 셈으로, 말하자면 맥북에어프로를 가짜뉴스 생산을 위한 타이핑 수단으로 쓰는 꼴이다.

이 ‘생성’ 알고리즘은 2014년에 개발된 이후 DcGAN, StyleGAN 등으로 진화하면서 한층 고도화됐다. 그 결과 GAN이 생성한 이미지는 학습용 데이터와 다를 바 없는 품질과 유사성을 지닌다. 실제 이 알고리즘은 사람의 얼굴을 ‘사진처럼’ 만들어내는데, 그 인물은 어디에도 없다. ‘없는’ 사람의 초상사진인 셈이다. 이를 활용한 온라인서비스도 늘고 있다. 비록 ‘가짜’지만 활용도는 높고 장점도 많다. 예컨대 Generative media에서는 GAN으로 만든 얼굴이미지 라이브러리를 운영하는데, 약 2백만 장의 이미지를 보유하고 있다. 성별, 연령별, 인종별 구분에 따라 선택한 얼굴 이미지를 다운받을 수 있으며, 필요에 따라 직접 원하는 이미지를 제작해주기도 한다. 당연히 이 2백만의 ‘인물’은 어디에도 없다. 실제 존재하지 않는 이 가상의 인물들은 그럼에도 불구하고 현실의 사람들과 비슷하며, 나아가 어디선가 본 듯한 인상을 준다. 현실의 인물을 촬영한 사진들을 원본으로 학습했기 때문이다. 어쨌든 핵심은 그들은 존재하지 않는다는 사실이다. 없는 사람이므로 당연히 초상권도 없다. 이름도 없고, 세월을 살지 않았기에 나이도 없고, 국적도 없다. 단지 얼굴만 있는 셈이다. 하지만 이 가상 이미지는 완전한 익명성 덕분에 필요에 따라 교육, 예술, 상업 등 다양한 영역에서 폭넓게 활용될 수 있다.

그런데 이 ‘없는’ 사람들의 초상과 관련하여 복잡한 문제가 생겨날 여지는 있다. 딥 페이크가 야기한 심각한 사회적 문제들을 고려하면 ‘악용’되지 않으리라는 보장이 없다. 인간의 욕망과 상상력은 어디까지 나아갈지 가늠할 수 없기 때문이다. 이 ‘무고한’ 가상의 인물들이 어떤 난처한 처지에 놓이게 될지 예측할 수 없다. 이 문제는 향후 인간과 휴머노이드의 관계 설정을 가늠하는 잣대가 될 수 있다. 예컨대 아리스토텔레스는 폴리스의 노예를 기계인간으로 대체하겠다는 생각을 품은 바 있는데, 이 때 인간과 기계인간의 관계는 수직적이다. 같은 맥락에서 알고리즘이 만든 이 가상의 인물들을 인간이 어떻게 ‘이용’해먹을지 알 수 없다. 이런 우려가 지금으로서는 과장일 수 있다. 허나 가까운 미래에 ‘로봇학대 금지법’이 나올 수도 있다는 점을 고려하면 ‘이미지 인간’에 대한 윤리적 관계, 나아가 법적 제도적 문제에 대해서도 진지하게 성찰해 볼 시점이 됐다.

 

* GAN 알고리즘에 대해서는 필자의 다른 칼럼 <한없이 진짜에 가까운 가짜>(2019. 12.11)를 참고할 것.

 

박평종 (중앙대학교 인문콘텐츠연구소 연구교수)

인간적인, 너무나 인간적인

인간적인, 너무나 인간적인

인간적인, 너무나 인간적인
04/01/2020
/ 박평종

지난 2015년 구글 포토에 한 남성이 올린 흑인 여성의 얼굴사진이 고릴라로 분류된 ‘황망한’ 사건이 있었다. 인종차별 논란으로 확산될 조짐을 보이자 구글 측은 서둘러 진화에 나섰고 더불어 인공지능의 바이어스(bias), 즉 편향성 문제가 급속히 수면 위로 떠올랐다. 이후에도 유사한 사례가 지속적으로 제기되고 또 보고돼 왔다. 안면 인식 기술이 고도화되고 있음에도 불구하고 특정 인종에 대한 인식 오류는 종종 발생한다. 또한 여성이나 성소수자에 대한 편향된 정보도 인공지능 기술 기반의 시스템에서 지속적으로 발견되고 있다.

인공지능의 긍정적인 가능성을 신뢰했던 초기 컴퓨터 공학자들과 프로그래머들은 기계가 인간의 편견을 극복하고 정확한 솔루션을 제시해 줄 것으로 기대했다. 그리고 그 예상은 어느 정도 맞았다. 하지만 진화를 거듭할수록 이 ‘똑똑한’ 기계는 인간 못지않게 편향성을 갖기 시작했다. 실제 AI 기반 시스템에서 중립적인 IT회사(예컨대 구글)는 통상 남성대명사로 자동 처리되고, 위키피디아의 인물 정보에서 여성의 비율은 20%도 되지 않는다. 과거 구글 번역기는 의사는 남성, 간호사는 여성 대명사로 처리했다. 나아가 상업용 안면인식 기술에서 백인남성 대 흑인여성의 인식 오류율은 35:0,8%라는 통계도 있다. 이런 편향성을 기계가 ‘의도적으로’ 갖게 됐을 리는 당연히 없다. 원인은 기계 학습에 제공되는 데이터다. 말하자면 데이터 편향이 문제다.

본래 기계는 편향적이지 않다. ‘기계적’이라는 말에 담겨있는 의미가 그렇다. 컴퓨터라는 기계에게 모든 정보는 그냥 숫자일 뿐이다. 그런데 인간의 경우 문제는 좀 복잡하다. 소위 ‘생각하는 기계’ 모델을 구상했던 튜링은 기계가 인간의 사고를 ‘기계적으로’ 모방하면 ‘생각’이 가능하다고 봤다. 사고의 ‘기계적’ 메카니즘을 알고리즘으로 구현하는 것이 그래서 실현될 수 있었다. 그런데 인간의 사고에는 대단히 복잡한 맥락과 정황이 얽히고설켜있다. 기계는 그 맥락을 고려하지 않는다. 그런 점에서 기계는 ‘객관적’이라고들 말한다. 흑인여성의 얼굴사진을 고릴라로 분류한 위의 기계는 자신이 학습한 데이터를 토대로 그 판단을 내놓았을 뿐이다. 그 판단에 담겨있는 문명사적 함의에 대해서는 고려하지 않았다. 오직 분류가 목적이기 때문이다. ‘어떤 점에서’ 그 기계의 판단은 정확했을 수 있다. 그렇게 배웠으므로. 의사는 남성, 간호사는 여성으로 처리한 기계도 마찬가지다. 자신이 학습했던 대부분의 데이터는 그렇게 말하고 있었는데 어쩌란 말인가. 말하자면 기계는 인간의 사고과정만 모방하는 것이 아니라 ‘인간의 데이터’로부터 배운다. 그런 점에서 기계의 편향성은 너무도 인간적이다.

결국 기계의 편향성을 줄이려면 데이터의 편향성을 치유해야 한다. 그건 쉽지 않은 일이다. 우선 기계에게 ‘제공하는’ 학습 데이터가 이미 ‘심각한’ 편향성을 갖고 있다. 예컨대 구글 데이터의 상당 부분은 서양, 특히 미국 중심으로 구축돼 있고, 이를 기반으로 한 알고리즘은 백인 남성 주도로 생산된다. 문제는 인간은 자신의 사고가 편향성을 갖고 있음을 좀처럼 인지하지 못한다는 데 있다. 알아도 바꾸기 어려운데 모르고 있다면 두말할 나위도 없다. 따라서 데이터 구축과 관리에 사회적 합의가 필요하다.

그러나 그것이 전부일까? 실상 기계는 특정한 임무를 수행하도록 제작됐다. 목적 지향적이라는 뜻이다. 편향이 한 방향에 치우쳐 있음을 뜻한다면 기계는 당초 기획 단계부터 편향적일 수 있다. 효율성을 극대화하기 위해 그 목적 달성에 필요한 요소들만 고려하는 탓이다. 그리고 실제 그 덕분에 기계는 인간보다 훨씬 효율적으로 노동한다. 그런 맥락에서 볼 때 기계학습용 데이터를 ‘공정하게’ 제공한다고 해서 인공지능의 바이어스 문제가 해결될 것이라고 섣불리 낙관할 수 없다. 인간은 자신의 단점을 극복하기 위해 기계를 만들었으나 역설적이게도 그 기계는 너무나 인간적이다.

 

박평종 (중앙대학교 인문콘텐츠연구소 연구교수)

(No) ghost in the shell

(No) ghost in the shell

(No) ghost in the shell
02/18/2020
/ 박평종

스칼렛 요한슨 주연의 <Ghost in the shell>, 1990년대에 나온 일본 애니메이션 <공각기동대>를 리메이크한 영화다. 원작에서 제기하는 다소 난해하고 복잡한 질문들을 단순화시켜 정리한 이 영화의 핵심 주제는 영혼과 신체의 상관관계다. ‘고전적인’ 주제지만 첨단 테크놀로지의 시대에 걸맞게 영혼을 인위적으로 ‘조작’했을 때 어떤 질문들이 제기될 수 있는가를 흥미롭게 보여주고 있다. 여기서 주인공 쿠나사기(메이저로 불리는)는 인공신체를 지닌 사이보그로 명령에 복종하는 특수부대 요원이다. 그녀의 ‘원래’ 기억은 프로그램에 따라 삭제됐으나 특정 상황에서 망령처럼 그 기억이 되살아난다. 프로그램의 관점에서는 일종의 버그며, ‘인간적인’ 관점에서는 부활한 혼이다.

실상 이 ‘주입된’ 기억은 ‘껍데기’의 새 삶을 위한 전제다. <블레이드 러너l>의 리플리컨트도 실제 겪지 않았던 경험을 ‘가짜 기억’으로 간직하면서 자신의 영혼을 구성하는 재료로 삼는다. 이미 광유전학(Optogenetics) 기술은 세포 일반뿐 아니라 뇌의 특정 부위를 자극하여 인위적인 기억을 가공해낼 수 있을 정도로 발전하고 있다. 말하자면 몸이 직접 경험하지 않아도 뇌의 자극만으로 유사기억을 만들어낼 수 있다는 뜻이다. 뇌는 신체의 모든 감각적 경험이 모이는 장소로 거기에서 개인의 모든 정신 활동이 시작한다. 소위 말하는 ‘영혼’의 요람인 셈이다. 데카르트는 ‘동물기계’론을 주장하면서도 이 ‘영혼’의 존재를 포기하지 못해 송과선을 영혼이 위치한 장소라고 주장한 바 있다. 하지만 아무리 CT를 찍어 봐도 그 ‘영혼’을 찾아낼 수는 없다. 어쨌든 그럼에도 불구하고 <Ghost in the shell>은 ‘불멸의’ 영혼을 지켜내고자 한다. 영혼의 완강함 때문에 결국 쿠나사기의 ‘껍데기’는 소멸하지만 오히려 그런 점에서 영화는 인간적이다.

한편 프랑스의 미디어 아티스트 필립 파레노(Philippe Parreno)와 피에르 위그(Pierre Hughe)의 작품 < No Ghost, just a shell>은 다른 맥락에서 영혼과 신체의 문제를 다룬다. 두 작가는 일본 애니메이션 회사에서 개발한 만화 캐릭터 앤리(Annlee)를 구입하여 작품의 모델로 삼는다. 여기서 이 캐릭터는 작가의 ‘구매행위’를 통해 저작권의 보호를 받는다. 따라서 다른 누구도 이 캐릭터를 주인공으로 삼아 만화나 애니메이션을 만들 수 없다. 허나 본래 만화 캐릭터는 스토리를 통해 성장하는 법이다. 결국 앤리는 태어났으나 어떤 삶도 살 수 없는 기구한 운명의 소유자가 된다. 살아보지 못했기에 그녀는 감정도, 취향도, 사고도 없다. 특정 상황, 특정 환경에서 그녀가 어떤 반응을 보일지 짐작조차 할 수 없다. 말하자면 중립적인 의미에서 영혼 없는 인간이라 할 수 있다. 두 작가는 앤리를 통해 현대를 살아가는 우리 모두가 영혼을 저당 잡힌 채로 껍데기의 삶을 살고 있음을 암시한다.

<No Ghost, just a shell>에서 껍데기만 가진 앤리는 지상 어디에도 있을 법하지 않은 가상의 공간 속을 하염없이 걷는다. 표정도 없고 반응도 없이 무작정 걷는다. 영락없는 로봇의 걸음이다. 공각기동대의 쿠나사기는 비록 가짜라도 ‘주입된’ 기억 탓에 자신의 ‘자아’를 지녔지만 앤리에겐 그마저도 없다. 만약 앤리에게 선택권이 있다면 가짜일지라도 기억을 갖고 싶어 하지 않을까 싶다. 한순간이라도 살아보아야 살지 말지 결정할 수 있을 테니 말이다.

뇌과학의 관점에서 보면 인간의 감정과 사고는 뇌에서 발생하는 특정한 신호로 정리될 수 있고 이를 알고리즘으로 환원할 수 있다면 로봇도 사고가 가능하다. 역으로 말하자면 인간의 영혼도 결국 알고리즘에 불과할 뿐이다. 같은 의미로 유물론자의 관점에서 보면 영혼이란 본래 없다. 하지만 우리가 어떤 유물론자를 ‘영혼 없는 인간’이라 부른다면 그는 필시 그렇지 않다고 답할 것이다. ‘영혼 없는 자’라는 표현이 뜻하는 바를 잘 알기 때문이다. 그런 점에서 혼은 본래 없다 해도 살아있는 한은 있다.

 

박평종 (중앙대학교 인문콘텐츠연구소 연구교수)