인간적인, 너무나 인간적인

인간적인, 너무나 인간적인

인간적인, 너무나 인간적인
04/01/2020
/ 박평종

지난 2015년 구글 포토에 한 남성이 올린 흑인 여성의 얼굴사진이 고릴라로 분류된 ‘황망한’ 사건이 있었다. 인종차별 논란으로 확산될 조짐을 보이자 구글 측은 서둘러 진화에 나섰고 더불어 인공지능의 바이어스(bias), 즉 편향성 문제가 급속히 수면 위로 떠올랐다. 이후에도 유사한 사례가 지속적으로 제기되고 또 보고돼 왔다. 안면 인식 기술이 고도화되고 있음에도 불구하고 특정 인종에 대한 인식 오류는 종종 발생한다. 또한 여성이나 성소수자에 대한 편향된 정보도 인공지능 기술 기반의 시스템에서 지속적으로 발견되고 있다.

인공지능의 긍정적인 가능성을 신뢰했던 초기 컴퓨터 공학자들과 프로그래머들은 기계가 인간의 편견을 극복하고 정확한 솔루션을 제시해 줄 것으로 기대했다. 그리고 그 예상은 어느 정도 맞았다. 하지만 진화를 거듭할수록 이 ‘똑똑한’ 기계는 인간 못지않게 편향성을 갖기 시작했다. 실제 AI 기반 시스템에서 중립적인 IT회사(예컨대 구글)는 통상 남성대명사로 자동 처리되고, 위키피디아의 인물 정보에서 여성의 비율은 20%도 되지 않는다. 과거 구글 번역기는 의사는 남성, 간호사는 여성 대명사로 처리했다. 나아가 상업용 안면인식 기술에서 백인남성 대 흑인여성의 인식 오류율은 35:0,8%라는 통계도 있다. 이런 편향성을 기계가 ‘의도적으로’ 갖게 됐을 리는 당연히 없다. 원인은 기계 학습에 제공되는 데이터다. 말하자면 데이터 편향이 문제다.

본래 기계는 편향적이지 않다. ‘기계적’이라는 말에 담겨있는 의미가 그렇다. 컴퓨터라는 기계에게 모든 정보는 그냥 숫자일 뿐이다. 그런데 인간의 경우 문제는 좀 복잡하다. 소위 ‘생각하는 기계’ 모델을 구상했던 튜링은 기계가 인간의 사고를 ‘기계적으로’ 모방하면 ‘생각’이 가능하다고 봤다. 사고의 ‘기계적’ 메카니즘을 알고리즘으로 구현하는 것이 그래서 실현될 수 있었다. 그런데 인간의 사고에는 대단히 복잡한 맥락과 정황이 얽히고설켜있다. 기계는 그 맥락을 고려하지 않는다. 그런 점에서 기계는 ‘객관적’이라고들 말한다. 흑인여성의 얼굴사진을 고릴라로 분류한 위의 기계는 자신이 학습한 데이터를 토대로 그 판단을 내놓았을 뿐이다. 그 판단에 담겨있는 문명사적 함의에 대해서는 고려하지 않았다. 오직 분류가 목적이기 때문이다. ‘어떤 점에서’ 그 기계의 판단은 정확했을 수 있다. 그렇게 배웠으므로. 의사는 남성, 간호사는 여성으로 처리한 기계도 마찬가지다. 자신이 학습했던 대부분의 데이터는 그렇게 말하고 있었는데 어쩌란 말인가. 말하자면 기계는 인간의 사고과정만 모방하는 것이 아니라 ‘인간의 데이터’로부터 배운다. 그런 점에서 기계의 편향성은 너무도 인간적이다.

결국 기계의 편향성을 줄이려면 데이터의 편향성을 치유해야 한다. 그건 쉽지 않은 일이다. 우선 기계에게 ‘제공하는’ 학습 데이터가 이미 ‘심각한’ 편향성을 갖고 있다. 예컨대 구글 데이터의 상당 부분은 서양, 특히 미국 중심으로 구축돼 있고, 이를 기반으로 한 알고리즘은 백인 남성 주도로 생산된다. 문제는 인간은 자신의 사고가 편향성을 갖고 있음을 좀처럼 인지하지 못한다는 데 있다. 알아도 바꾸기 어려운데 모르고 있다면 두말할 나위도 없다. 따라서 데이터 구축과 관리에 사회적 합의가 필요하다.

그러나 그것이 전부일까? 실상 기계는 특정한 임무를 수행하도록 제작됐다. 목적 지향적이라는 뜻이다. 편향이 한 방향에 치우쳐 있음을 뜻한다면 기계는 당초 기획 단계부터 편향적일 수 있다. 효율성을 극대화하기 위해 그 목적 달성에 필요한 요소들만 고려하는 탓이다. 그리고 실제 그 덕분에 기계는 인간보다 훨씬 효율적으로 노동한다. 그런 맥락에서 볼 때 기계학습용 데이터를 ‘공정하게’ 제공한다고 해서 인공지능의 바이어스 문제가 해결될 것이라고 섣불리 낙관할 수 없다. 인간은 자신의 단점을 극복하기 위해 기계를 만들었으나 역설적이게도 그 기계는 너무나 인간적이다.

 

박평종 (중앙대학교 인문콘텐츠연구소 연구교수)

(No) ghost in the shell

(No) ghost in the shell

(No) ghost in the shell
02/18/2020
/ 박평종

스칼렛 요한슨 주연의 <Ghost in the shell>, 1990년대에 나온 일본 애니메이션 <공각기동대>를 리메이크한 영화다. 원작에서 제기하는 다소 난해하고 복잡한 질문들을 단순화시켜 정리한 이 영화의 핵심 주제는 영혼과 신체의 상관관계다. ‘고전적인’ 주제지만 첨단 테크놀로지의 시대에 걸맞게 영혼을 인위적으로 ‘조작’했을 때 어떤 질문들이 제기될 수 있는가를 흥미롭게 보여주고 있다. 여기서 주인공 쿠나사기(메이저로 불리는)는 인공신체를 지닌 사이보그로 명령에 복종하는 특수부대 요원이다. 그녀의 ‘원래’ 기억은 프로그램에 따라 삭제됐으나 특정 상황에서 망령처럼 그 기억이 되살아난다. 프로그램의 관점에서는 일종의 버그며, ‘인간적인’ 관점에서는 부활한 혼이다.

실상 이 ‘주입된’ 기억은 ‘껍데기’의 새 삶을 위한 전제다. <블레이드 러너l>의 리플리컨트도 실제 겪지 않았던 경험을 ‘가짜 기억’으로 간직하면서 자신의 영혼을 구성하는 재료로 삼는다. 이미 광유전학(Optogenetics) 기술은 세포 일반뿐 아니라 뇌의 특정 부위를 자극하여 인위적인 기억을 가공해낼 수 있을 정도로 발전하고 있다. 말하자면 몸이 직접 경험하지 않아도 뇌의 자극만으로 유사기억을 만들어낼 수 있다는 뜻이다. 뇌는 신체의 모든 감각적 경험이 모이는 장소로 거기에서 개인의 모든 정신 활동이 시작한다. 소위 말하는 ‘영혼’의 요람인 셈이다. 데카르트는 ‘동물기계’론을 주장하면서도 이 ‘영혼’의 존재를 포기하지 못해 송과선을 영혼이 위치한 장소라고 주장한 바 있다. 하지만 아무리 CT를 찍어 봐도 그 ‘영혼’을 찾아낼 수는 없다. 어쨌든 그럼에도 불구하고 <Ghost in the shell>은 ‘불멸의’ 영혼을 지켜내고자 한다. 영혼의 완강함 때문에 결국 쿠나사기의 ‘껍데기’는 소멸하지만 오히려 그런 점에서 영화는 인간적이다.

한편 프랑스의 미디어 아티스트 필립 파레노(Philippe Parreno)와 피에르 위그(Pierre Hughe)의 작품 < No Ghost, just a shell>은 다른 맥락에서 영혼과 신체의 문제를 다룬다. 두 작가는 일본 애니메이션 회사에서 개발한 만화 캐릭터 앤리(Annlee)를 구입하여 작품의 모델로 삼는다. 여기서 이 캐릭터는 작가의 ‘구매행위’를 통해 저작권의 보호를 받는다. 따라서 다른 누구도 이 캐릭터를 주인공으로 삼아 만화나 애니메이션을 만들 수 없다. 허나 본래 만화 캐릭터는 스토리를 통해 성장하는 법이다. 결국 앤리는 태어났으나 어떤 삶도 살 수 없는 기구한 운명의 소유자가 된다. 살아보지 못했기에 그녀는 감정도, 취향도, 사고도 없다. 특정 상황, 특정 환경에서 그녀가 어떤 반응을 보일지 짐작조차 할 수 없다. 말하자면 중립적인 의미에서 영혼 없는 인간이라 할 수 있다. 두 작가는 앤리를 통해 현대를 살아가는 우리 모두가 영혼을 저당 잡힌 채로 껍데기의 삶을 살고 있음을 암시한다.

<No Ghost, just a shell>에서 껍데기만 가진 앤리는 지상 어디에도 있을 법하지 않은 가상의 공간 속을 하염없이 걷는다. 표정도 없고 반응도 없이 무작정 걷는다. 영락없는 로봇의 걸음이다. 공각기동대의 쿠나사기는 비록 가짜라도 ‘주입된’ 기억 탓에 자신의 ‘자아’를 지녔지만 앤리에겐 그마저도 없다. 만약 앤리에게 선택권이 있다면 가짜일지라도 기억을 갖고 싶어 하지 않을까 싶다. 한순간이라도 살아보아야 살지 말지 결정할 수 있을 테니 말이다.

뇌과학의 관점에서 보면 인간의 감정과 사고는 뇌에서 발생하는 특정한 신호로 정리될 수 있고 이를 알고리즘으로 환원할 수 있다면 로봇도 사고가 가능하다. 역으로 말하자면 인간의 영혼도 결국 알고리즘에 불과할 뿐이다. 같은 의미로 유물론자의 관점에서 보면 영혼이란 본래 없다. 하지만 우리가 어떤 유물론자를 ‘영혼 없는 인간’이라 부른다면 그는 필시 그렇지 않다고 답할 것이다. ‘영혼 없는 자’라는 표현이 뜻하는 바를 잘 알기 때문이다. 그런 점에서 혼은 본래 없다 해도 살아있는 한은 있다.

 

박평종 (중앙대학교 인문콘텐츠연구소 연구교수)

서울에서 김서방 찾기

서울에서 김서방 찾기

서울에서 김서방 찾기
02/03/2020
/ 박평종

영화 <미션임파서블: 로그네이션>에는 몽타주 한 장으로 공항 CCTV를 통해 불과 몇 초 만에 한 인물을 찾아내는 거의 임파서블한 장면이 나온다. 그럴 듯해 보이지만 실상 이 놀라운 식별을 수행할 수 있는 자는 현실에 존재하지 않는다. 이유는 여러 가지나 중요한 몇 가지만 따져보자.

첫째, 인물을 ‘정확히’ 식별하기 위해서는 얼굴의 안면 정보, 즉 정면의 얼굴모습이 필요한데 CCTV에 신분증 사진과 같은 ‘표준화된’ 얼굴이 잡히는 일은 아주 드물다. 식별 대상 인물이 카메라 앞에 자기 얼굴을 ‘스캔’하라고 들이밀지 않는 이상 말이다. 말하자면 얼굴을 찍는 카메라의 각도가 조금만 달라져도 식별력은 떨어진다. CCTV의 인물 식별력이 알려진 것보다 높지 않은 이유다. 둘째, 식별력은 식별 주체가 사전에 알고 있는 사람일 때 높다. 다시 말해 모르는 사람을 사진 한 장에 의지해서(심지어 영화에서는 몽타주다) 찾아내기란 만만한 일이 아니다. 이는 영국의 인지심리학자 비키 브루스(Vicki Bruce)의 실험을 통해 입증된 바 있다. 셋째, 사람은 식별의 모든 요소를 동등하게 고려하여 판단하지 않는다. 이를 풀어서 말하자면 다음과 같다. 정확한 식별을 위해서는 얼굴의 모든 구성 요소를 분석한 후 이를 참조물과 대조하여 일치 여부를 따져야 한다. 눈, 코, 귀, 입, 이마, 각 부위들 간의 간격 등이 정확히 일치해야 한다는 것이다. 하지만 인간은 ‘대충’ 비교해서 ‘닮았다’고 인식한다. 이는 식별이 아니라 ‘유사성’에 대한 판단이다. 나아가 특정 요소만을 선택적으로 수용하여 ‘특별한’ 의미를 부여한다. 당연히 다른 요소들은 부차적일 뿐만 아니라 심지어 판단에서 배제되기도 한다. ‘감정’이 개입한다는 뜻이다.

CCTV의 식별력이 비약적으로 높아진 것은 최근의 일이다. CCTV의 수가 많아져서일까? 물론 정보량이 많아진 것도 한 요인이지만 무엇보다도 식별의 주체가 사람에서 기계로 바뀐 이유가 크다. 불과 몇 년 전까지만 해도 컴퓨터는 개와 고양이를 구분하지 못했다. 그런데 기계가 딥러닝을 하면서 이제 진돗개와 시바를 구별한다. 여기서 주로 사용되는 알고리즘이 CNN(Convolutional Neural Network)이다. 어쨌든 기계는 사람과 달리 아무런 ‘편견’ 없이 식별에 필요한 모든 요소를 꼼꼼히 비교한다. 지치지도 않고, 지겨워하지도 않는다. 따라서 비교 대상이 수천, 수만일지라도 ‘언젠가는’ 모든 비교 대상을 검토할 수 있다.

인공지능이라는 용어가 ‘공식적으로’ 처음 사용된 다트머스(Darthmouth) 컨퍼런스에서 로체스터(N. Rochester)는 인간에 대한 컴퓨터의 비교우위에 대해 언급한다. 컴퓨터는 인간이 문제에 봉착했을 때 솔루션을 제시하도록 고안됐다. 하여 문제가 주어지면 컴퓨터는 주어진 정보의 범위 내에서 해결책을 찾아나간다. 없는 정보를 스스로 찾기도 한다. 이른바 검색 기능이다. 그런데 한 번도 제기돼지 않았던 새로운 유형의 질문이 주어졌을 때, 다른 한편으로 인간이 문명사 내내 답하려고 했으나 ‘아직’ 해답을 찾아내지 못한 질문 앞에서 컴퓨터는 두 가지 측면에서 인간보다 우월할 수 있다. 첫째, 이 경우 한 인간이 평생 노력해도 결국 답을 찾아내지 못할 공산이 크다. 제 아무리 천재라 할지라도 말이다. 둘째, 이 과정에서 기계는 편견이나 선입견에 사로잡히지 않고 모든 가능한 경우의 수를 고려한다. 답이 아닐 것이라고 예단하지 않고 모든 사례를 임의로 차근차근, 하나씩 적용해 보는 것이다. 만약 어딘가에 답이 있다면 수십억분의 일일지라도 ‘언젠가는’ 답이 나온다는 얘기다. 이 과정을 지치지 않고 버텨낼 수 있는 자는 기계밖에 없다.

따라서 “서울에서 김서방 찾기”가 사람에게는 거의 불가능에 가깝지만 기계는 지치지 않고 그 임무를 수행할 수 있다. 서울 어딘가에 김서방이 있다면 말이다. 컴퓨터의 연산속도가 느렸을 때는 이 ‘김서방’을 찾는 데 시간이 오래 걸렸다. 하지만 연산 속도가 빠른 현대의 컴퓨터는 방대한 데이터를 토대로 서울의 김서방만이 아니라 북경의 왕서방, 뉴욕의 제임스도 찾아낼 수 있다. 기계의 놀라운 힘이다.

 

박평종 (중앙대학교 인문콘텐츠연구소 연구교수)

 

반튜링론

반튜링론

반튜링론
01/22/2020
/ 박평종

 엥겔스는 <반듀링론>에서 유물론의 관점에 따라 생명의 기원을 단백질로 정의한다. 이 규정을 확장하여 통속적으로 표현하면 ‘생각하는 인간’의 근원인 뇌란 단지 고깃덩어리일 뿐이다. 영화 <한니발>에는 약물 처리하여 살아있는 사람의 뇌 일부를 칼로 도려내 프라이팬에 구워 먹게 하는 끔찍한 장면이 나오는데, 이 발상도 실상 뇌가 ‘고상한’ 사고의 원천이 아니라 생물학적으로는 단백질일 뿐이라는 사실과 연결돼 있다.

우리는 ‘사고(thinking)’가 어떻게 생겨나는지, 그 근원은 무엇인지 명확히 알지 못한다. 뇌과학의 첨단 연구도 아직 만족스런 답을 내놓지 못하고 있다. 실상 오랫동안 신비주의가 사고의 메카니즘을 설명해 왔다. 예컨대 유기체와 기계의 구조가 다를 바 없다는 생각에 기초하여 ‘동물기계’론을 주장한 데카르트조차도 인간의 사고에는 특별한 지위를 부여하여 영혼의 존재를 포기하지 않았다. 데카르트를 비판하며 ‘인간기계’론을 개진한 라 메트리(La Mettrie)도 결국 영혼의 개념을 버리지 못했다. 즉 뇌는 물질이지만 ‘특별한’ 물질이어서 동물의 그것과 다르다는 것이다. 그들로부터 수백 년이 지난 지금도 여전히 우리는 ‘영혼’의 존재에 의지하고 있다. 줏대도 없고 지조도 없는 사람을 ‘영혼’ 없는 자라고 부르지 않던가. 그러나 실상 ‘영혼’ 있는 자는 어디에도 없다. 영화 <사랑과 영혼>의 주인공을 좋아하는 사람들을 제외하면 말이다.

‘코지토’가 뇌에 빚지고 있다는 사실은 분명하나 한편에서는 여전히 ‘영혼’이 주인이라 하고, 다른 한편에서는 그것이 단백질 내부에서 작용하는 알고리즘의 결과일 뿐이라고 주장한다. 후자의 입장에 따르면 그런 알고리즘은 수식으로 표현 가능하니 컴퓨터도 뇌처럼 사고할 수 있다는 논리적인 결론에 이른다. 그럼 기계가 생각할 수 있는가? 튜링(Alan Turing)은 그럴 수 있다고 답한다. 이유는 간단하다. 컴퓨터 프로그램 이론의 선구자 에이다 러브리스(Ada Lovelace)에 따르면 기계는 인간이 명령하는 것 이상을 할 수 없다. 말하자면 기계는 인간의 명령에 복종한다. 그것이 프로그램의 정의이자 기계의 한계다. 뭐 인간이 기계를 만들었으니 그럴 법도 하다. 그런데 튜링은 다음과 같이 러브리스의 이론을 확장시킨다. 즉 컴퓨터에게 “스스로 사고하라”는 명령을 주었을 때 기계는 어떻게 할 것인가? 인공지능의 가능성이 여기서 시작된다.

<블레이드 러너>의 첫 장면에서 리플리컨트는 ‘튜링 테스트’를 통과하지 못해 탈출하다 붙잡힌다. 반면 <엑스 마키나>의 에이바는 이 테스트에서 오히려 인간을 속이고 탈출에 성공한다. 전자의 경우 리플리컨트는 실제 사고하는 것이 아니라 프로그램 된 정보에 입각하여 ‘계산된’ 답을 내놓을 뿐이다. 후자는 ‘임계점’을 넘어선 경우, 말하자면 이른바 ‘초인공지능’의 단계에 진입한 ‘가상의’ 설정이므로 논할 바가 아니나 영화는 기계가 ‘언젠가는’ ‘사고’를 할 것이라고 제안한다.

어쨌든 관건은 기계가 사고 할 수 있는지 여부다. <반듀링론>에 따라 단백질이 생명의 기원이라면 사고하는 생명, 즉 인간의 기원도 단백질이라고 할 수 있다. 그럼 튜링의 가설을 받아들여 기계가 사고할 수 있다면 금속도 사고한다고 해야 하는가? 물론 18세기의 급진적 유물론자이자 ‘인간기계’의 저자인 라 메트리는 물질이 사고할 수 있다고 주장한다. 하지만 그는 유기체 외의 어떤 다른 물질이 사고할 수 있다는 근거를 찾을 수 없다고 겸허히 물러난다. 솔직히 잘 모른다는 뜻이다.

금속으로 안드로이드를 만들었던 18세기의 보캉송(Jacques Vaucanson)은 기계의 한계를 깨닫고 ‘피가 흐르는’ 기계인간을 구상한 바 있다. 한편 보캉송에게 영향을 미쳤던 동시대의 생리학자 르 카(Claude-Nicolas Le Cat)는 뇌를 포함하여 인간의 신체가 그리 간단한 구조로 이루어져 있지 않다는 사실을 잘 알고 있었다. 피가 흐른다고 저절로 사고가 가능하지 않다는 것이다. “스스로 사고하라”고 기계에게 백날 말한들, 빅테이터를 주고 스스로 학습하라고 프로그램 한다 해서 ‘사고’가 가능할지 잘 모르겠다. 연산과 사고는 다르니까 말이다. 불확실하다면 알 수 없다는 뜻이다.

 

박평종 (중앙대학교 인문콘텐츠연구소 연구교수)

 

그 때는 맞고 지금은 틀리다

그 때는 맞고 지금은 틀리다

그 때는 맞고 지금은 틀리다
01/08/2020
/ 박평종

1. 그 때는 맞고 지금은 틀리다

“하드 1기가? 와! 평생을 써도 다 못쓰겠다.” 영화 <건축학개론>의 주인공이 당시 초고성능 컴퓨터 팬티움을 갖고 있던 선배를 부러워하며 건넨 대사다. 1기가면 1,000메가가 넘는다. A4 한 장 정도의 문서가 약 10-20kb, 10장 분량이 기껏해야 50kb-100kb 정도, 1메가는 1,000kb니 1기가면 엄청난 양이다. 책 한권을 1메가로 계산했을 때 책 1,000권을 저장할 수 있다면 정말 평생을 써도 다 쓸 수 없는 양이다. 대충 계산해도 매년 1메가 분량의 텍스트를 1,000년간 생산해야 그 ‘하드’를 채울 수 있을 테니 영화 속 주인공의 대사는 ‘당시로서는’ 과장이 아니다. 영화 전반을 잔잔하게 적셔주는 음악 <기억의 습작>이 1994년에 나왔으니 대략 25년 전인데, 당시 지금의 USB 역할을 했던 플로피 디스크의 용량은 1,4메가였다. 그리고 그 얇은 플라스틱 조각 속에 측정하기 어려울 만큼의 많은 텍스트를 저장할 수 있었다.

이 ‘천문학적’ 하드 1기가, 그러나, 지금은 있으나 마나다. 요즘 컴퓨터의 하드는 1테라, 즉 1,000기가로도 부족하다. 천배가 넘는 용량임에도 그렇게 된 까닭은 무엇일까? 이 기간 동안 정보 생산량이 비약적으로 늘어난 것일까? 한편으로는 그렇고 다른 한편으로는 그렇지 않다. 우선 디지털 기술은 문자 그대로 ‘모든’ 현상을 데이터로 저장할 수 있다. 문자는 물론이거니와 소리, 이미지, 영상 등 인간이 생산하는 모든 기호를 동일한 형태의 숫자 정보로 변환시켜 ‘기록’한다. 키틀러의 통찰을 정리하자면 과거 축음기는 소리 정보를, 카메라는 시각 정보를, 타자기는 문자 정보를 저장하는 매체였고 그 기록매체들 간에는 호환성이 없었다. 따라서 매체의 특수성은 대단히 중요했다. 하지만 이제 이 모든 기록 매체들은 디지털 기술을 통해 하나로 통합됐다. 컴퓨터에 저장된 정보(소리, 이미지, 영상)들 사이에 물리적인 차이는 없다. 물론 그 정보들의 수용 방식은 인간의 감각기관이 지닌 차별성 탓에 다르지만 말이다. 어쨌든 그렇게 해서 인간이 생산하는 모든 기호는 데이터화될 수 있다. 말하자면 ‘그 때’는 정보가 아니었던 자연기호가 ‘지금’은 정보로 변신하여 데이터화된다. 실상 우리 컴퓨터의 ‘하드’에는 잡담을 비롯하여 온갖 불필요한 정보, 나아가 ‘쓰레기’ 같은 데이터가 몇 기가씩 있다. 평생 써도 못쓸 그 1기가가 ‘쓰레기’ 보관에 사용되고 있는 셈이다.

 

2. 그 때는 틀리고 지금은 맞다

하지만 잡담에도 정보가 있다. 불필요한 정보도 나중에 가치를 부여받을 수 있다. 실상 정보란 우리가 모르는 무엇을 알려줄 때 가치 있다. 이미 알고 있는 정보란 아무 짝에도 쓸모가 없다. 하여 지금 그 가치를 알고 있는 정보는 역으로 별 가치가 없다. 수십 년 전 별 뜻 없이 찍었던 기념사진이 후일 얼마나 소중한 이미지가 되는가. 결국 그 때는 정보가 아니었던 것이 지금은 가치 있는 정보일 수 있다. 따라서 정보 저장소의 용량은 클수록 좋다.

문서는 숫자처럼 ‘불연속적’ 기호로 구성되기 때문에 디지털 데이터로의 변환이 쉽다. 반면 이미지는 ‘연속적인’ 기호라 디지털 데이터로 변환하기 까다롭다. 컴퓨터에게 쉬운 것이 인간에게는 어렵고, 반대로 인간에게 쉬운 것이 컴퓨터에게는 어렵다는 이른바 모라벡의 역설이 여기서도 적용될 수 있다. 하여 이미지를 디지털 데이터로 저장하기 위해 컴퓨터는 ‘고생’을 좀 해야 한다. 용량이 늘어날 수밖에 없는 이유다. 그리고 이미지 데이터의 용량이 클수록, 즉 해상도가 높을수록 정보량도 많아진다. 반대로 불연속적인 텍스트의 경우 데이터 용량이 늘더라도 정보량이 많아지지는 않는다. 글자를 식별할 정도의 용량에서 정보량은 멈추는 것이다. 디지털 카메라가 등장하던 초기 300만 화소짜리 카메라를 보고 놀랐던 적이 있다. 허나 지금은 휴대폰에 1억 화소 카메라가 장착돼 나온다. 하여 고작 2mb의 <순수이성비판> 파일과 유명 맛집 블로거가 찍은 200mb의 파스타 사진을 데이터의 크기로 비교하는 것은 난센스다.

컴퓨터가 상용화되기 전까지 인류는 전체 역사 기간 동안 12엑사바이트(10¹⁸바이트)의 데이터를 축적했다고 한다. 참고로 데이터의 단위는 기가-테라-페타-엑사-제타 바이트로 이어지며, 각 단계별 차이는 약1,000배씩이다. 2010년대에 접어들면서 인류는 처음 제타바이트를 경험했고 이 양은 매년 3-4배씩 늘어나는 추세다. 빅 데이터라는 말로도 크기를 표현하기 부족할 만큼 초울트로빅이다. 데이터가 천문학적으로 늘어났다면 그 데이터가 담고 있는 정보도 그만큼 늘어났을까? 관건은 거기서 얼마나 ‘가치 있는’ 정보를 찾아내느냐에 있다. 단지 데이터 크기로만 정보의 가치를 가늠할 수는 없기 때문이다. 결국 우리가 데이터에서 가치 있는 정보를 찾아낼 때만 ‘그 때’는 틀리고 ‘지금’은 맞다. ‘그 때’는 애완견이었지만 ‘지금’은 반려동물인 것처럼 말이다.

 

박평종 (중앙대학교 인문콘텐츠연구소 연구교수)

 

한없이 진짜에 가까운 가짜

한없이 진짜에 가까운 가짜

한없이 진짜에 가까운 가짜
12/11/2019
/ 박평종

“어떤 바보가 진짜 돈을 만들었지?” 초현실주의 삽화가 모리스 앙리(Maurice Henri)의 <사전꾼들>에서 이 모리배 집단의 우두머리가 부하들이 만든 가짜 돈을 집어 들며 하는 말이다. 이 말에 담긴 의미를 풀어보면 다음과 같다. 우선 이 집단의 목적은 가짜 돈을 만드는 데 있다. 따라서 진짜 돈을 만들 경우 그들의 행위는 실패다. 그런데 정말 그럴까? 가짜 돈은 진짜와 구별이 어려울 정도로 진짜와 흡사해야 한다. 누가 보더라도 가짜 티가 나면 가짜 돈으로 기능하지 못한다. 그래서 진짜에 한없이 가까워야 한다. 단 진짜와 같아서는 안 된다. 물론 아무리 잘 만들어도 가짜 돈이 진짜가 될 수는 없다. 위의 예에서도 마찬가지다. 이 ‘바보’가 만든 돈은 우두머리의 눈에 진짜처럼 보인다 할지라도 결코 진짜가 될 수 없다. 한편 우두머리의 눈을 속인 그 자는 ‘바보’가 아니라 ‘달인’이다.

그럼 그 자는 어떻게 ‘달인’이 됐을까? 가짜 돈을 만드는 자가 있고, 그것이 진짜인지 가짜인지 판별하는 자가 있다. 만드는 자는 속이려 하고 판별하는 자는 속이지 못하게 제어하려 한다. 즉 그들은 각자의 영역에서 최대치의 능력을 이끌어 내고자 한다. 그렇다면 능력의 최대치가 발휘됐을 때 어떤 결과가 나올까? 가짜를 만드는 자의 능력이 극대화될 때 판별자는 무능한 자가 된다. 반대로 판별자의 능력이 최대치가 될 경우 만드는 자가 무능해진다. 말하자면 두 축의 능력은 정확히 중간에서 만나야 한다. 그럼 능력의 절반만 발휘해야 할까? 전혀 그렇지 않다. 그 경우 두 바보만 남게 된다. 핵심은 각자 최대치의 능력을 발휘하는 과정에서 서로가 발전한다는 것이다. 판별자를 속일 수 있을 만큼 뛰어난 가짜를 만들고자 할 때 판별자의 식별력은 높아지고, 그렇게 능력이 뛰어난 판별자를 다시 속이려 하는 과정에서 가짜 생산자의 능력도 발전하는 셈이다.

딥러닝을 활용한 이미지 합성 기술인 딥 페이크(Deep fake)가 논란이 되고 있다. 이 기술은 적대적 생성 신경망(Generative Adversarial Networks), 소위 GAN이라 불리는 알고리즘이 기반이다. 오바마의 가짜 연설문 영상으로 화제가 되기도 했으며, 최근에는 유명 배우들의 가짜 포르노 영상으로 논란의 중심에 서있다. 이 알고리즘은 2014년 이안 굿펠로우(Ian Goodfellow)가 개발한 모델로 지도학습(Supervised Learning)에 기초한 기존의 기계학습 방식을 비지도학습으로 전환함으로써 딥러닝이 도약하는 계기를 마련해주었다고 평가받는다. 여기서 핵심은 서로 적대적인 두 축이 기계학습을 주도한다는 점이다. 학습의 원리는 의외로 간단한다. 분류 모델과 생성 모델의 두 단계가 있다. 인간의 뇌를 모방한 컴퓨터 신경망은 우선 진짜 데이터를 진짜로 분류하도록 학습하고, 이미지 생성자(Generator)가 만든 가짜 데이터는 가짜로 분류하도록 학습한다. 다음은 생성 모델로 학습목표는 분류 모델을 속이는 것, 말하자면 판별자(Discriminator)가 진짜와 가짜를 구분할 수 없을 정도로 유사한 가짜 데이터를 생산하는 것이다. 이 과정이 무수히 반복되면 생성자의 능력은 극대화되어(판별자와 더불어) 진짜 같은 가짜를 생산할 수 있게 된다. 정리하자면 GAN에서 생성자와 판별자는 서로 적대적 경쟁을 통해 발전하며, 이 과정 자체가 곧 딥러닝인 셈이다. GAN은 꾸준히 진화하여 이제 <사전꾼들>의 두목처럼 가짜를 진짜라고 믿을 만큼 정교해졌다. 삽화는 재밌지만 현실은 무섭다.

가짜를 만드는 목적은 속이기 위함이다. 그리고 누군가를 속이는 주체는 늘 인간이었다. 그런데 이제 기계가 인간을 속이는 시대가 왔다. GAN의 생성자는 가짜를 생산하기 위한 알고리즘이고, 판별자의 ‘적대적’ 협력을 통해 그 목적을 탁월하게 수행한다. 딥 페이크, 한없이 깊은 속임수의 세계가 펼쳐지고 있다. 인간이 기계가 파놓은 속임수의 깊이를 헤아릴 수 있을지 전망은 어둡다.

 

박평종 (중앙대학교 인문콘텐츠연구소 연구교수)