지난주, 기자는 남편과 함께 하브루타를 위해 일정 시간을 투자하여 준비하는 기간을 가져보았다. 주제는 인공지능(AI-Artificial Intelligence)로 정하고, 하브루타를 위해 준비하는 자료는 기사, 인터넷 자료, 칼럼, 책 등 종류를 한정 짓지 않았다. 각자 일주일간 여러 자료를 수집하여 읽고 일주일 후 함께 AI를 주제로 하브루타를 하기로 한 것이다. 미리 준비된 하브루타는 어떤 식으로 전개 되어질지 궁금한 마음을 가지고 기자가 첫 운을 떼었다.
기자: 중국 베이징에서 로봇 스님 ’센얼’이 인기를 끌고 있다고 해요.
남편: 센얼? 로봇 스님? 로봇 스님은 뭘 하는거죠?
기자: 센얼은 60cm의 키에 노란색 승복을 입은 동자승 모습으로 이세돌과의 바둑 대결에서 이긴 알파고(Alpha Go)를 빗대어 ‘알파승’으로 불리기도 한다고 해요. 고민이 생기면 인공지능 센얼에게 질문을 던지고 센얼은 그에 대한 답을 해주는 식이죠.
남편: 흠.. 과연 센얼이 인간의 복잡한 이성적인 문제를 해결할 수 있을까요?
기자: 당신 시리(Siri) 잘 쓰잖아요. 시리와는 이런 문제가 해결이 가능한가요?
남편: No. No. No. 전혀 해결 안돼요. 아니다. 전혀는 아니고 대부분이 해결이 안된다고 봐야겠죠.
기자: 센얼이 시리랑 비슷하다는 말을 보았는데 그럼 당신은 시리랑 어떤 말을 해요?
남편: 날씨, 시간, 길 찾기 등을 물어 보는거죠. 단순한 데이터를 조회하는데는 도움이 좀 되는데 내가 좀 어려운 질문을 하면 시리는 계산을 잘 못하고 헤매요. 여기서 계산이라는건 더하기, 빼기 등의 수학적 계산만을 말하는건 아니구요. 컴퓨터는 모두 0와 1을 조합한 논리적인 언어를 사용하는 거잖아요. 말의 내용이 조금만 복잡해지면 시리는 판단을 잘 못하게 되는것 같아요. 그래서 센얼이 대답을 해준다고 해도 대답의 수준이 어느 정도일까 의심스럽네요.
기자: 안그래도 센얼이 대화한 예문을 몇개 봤는데 조금만 복잡한 내용이거나 정치적으로 민감한 내용들은 직접적인 대답을 피해가면서 어물쩡 넘어가더라고요.
남편: 알파고(Alpha Go)는 빅데이터를 분석해서 게임의 전략을 만들어내는데 성공했다고 보이지만다양한 사고를 할 수 없다는 큰 단점이 있어 보여요.
기자: 옥스퍼드-딜로이트 미래직업 보고서에 따르면 특정 직업군들이 사라질 가능성이 택시기사 95.1%, 공무원 96.8%, 은행원 96.8%, 영업관리직 97.2%이라고 해요. 또한, 한국고용정보원에 따르면 자동화 대체 확률이 낮은 직업으로는 1위 화가 및 조각가, 2위 사진작가, 3위 작가 4위 지휘자, 작곡가, 연주가 5위 만화가 6위 무용가 7위 가수 및 성악가 8위 공예원 10위 예능 강사 등으로 그 외의 순위에도 디자이너, 감독, 큐레이터 등 예체능과 관련된 직업군이 많았어요. 인공지능이 인간이 창의력과 감성을 흉내낼 수 없다는 말이기도 하죠. 당신 말처럼 인공지능은 다양한 사고를 할 수 없다는 큰 단점이 있다고 보여지네요.
남편: 단순한 처리 능력은 지칠 줄 모르는 컴퓨터가 인간을 뛰어넘을 정도로 잘하는 일(job)이죠. 하지만, 단순 처리 능력이나 확률적 계산 능력이 아닌 창조적인 일을 해낼 능력은 부족해요. 아무리 수퍼지능(superintelligence)이 된다 하더라도 그 부분은 인간을 대체하기 어려울 수 있죠.
기자: 우리가 모든 일을 판단하는데 이제까지 전혀 없던 일을 새롭게 생각해내지 않는 이상 대부분 업무 처리는 경험을 바탕으로 한 확률적인 계산이라고 할 수 있죠. 그렇다면, 우리가 생각하는 이성적인 논리라는 것도 이전부터 축적되어 온 확률적인 사고 또는 논리가 될 수 있다는 것이고 이러한 데이터가 쌓이게 된다면 인공지능 또한 이러한 사고를 할 수 있다는게 될 수 있을 것 같아요. 그렇게 되면, 인공지능이 감정을 직접 느끼지 않는다 하더라도 어떠한 경우에 확률적으로 인간이 어떤 느낌을 갖게 될 것이라는 걸 분석해서 알려줄 수 있겠죠. 안그래도 치열한 삶을 사는 인간에게 인공지능이라는 어마어마한 상대가 나타났네요.
남편: 알파고와 이세돌 9단의 바둑 대결을 통해 인공지능의 학습 능력을 전 세계에서 지켜 보았죠. 구글이 개발한 알파고(Alpha Go)는 인간이 천년은 걸려야 학습할 수 있는 백만번의 대국을 단 몇 주만에 학습하여 이세돌 9단과의 바둑 대결에서 이겼는데, 이런 딥러닝(deep learning) 기술은 우리에게 이득이 될까요, 아니면 위협이 될까요?
기자: AI라는 영화도 있잖아요. 인간이 컨트롤 할 수 없는 영역까지 기계가 관련되는 부분이 영화에서는 다소 과장되게 표현되기도 했지만 앞으로는 이러한 내용이 실제 상황이 될 수도 있을것 같다는 생각이 들어요. 영화에서 묘사된 수퍼지능을 인간이 컨트롤 할 수 없게 되는 상황에 이르게 된다면, 지금은 만물의 영장이 인간이라고 하지만, 수퍼지능이 존재하는 미래에는 인공지능이 만물의 영장이 될 수 있다는거죠. 이건 인공지능이 단순히 인간의 직업을 빼앗는 정도의 수준이 아니라 인간을 지배할 수도 있다는거예요.
남편: AI는 GPS를 이용한 길 찾기, 교통량 조사, 질병 치료 등 사회경제 전반에서 이미 널리 쓰이고 있어요. 하지만, 현실에서 도움이 된다고 해서 발전에 발전을 거듭하여 너무 많은 발전으로 나아가게 되면 수퍼지능이 우리를 지배하게 될 수도 있을 거예요. 닉 보스트롬 옥스퍼드대 교수의 저서 <수퍼지능(2014)>에 따르면, 인공지능(AI-Artificial Intelligence)에는 인간이 성공적으로 해낼 수 있는 업무를 해낼 능력이 있는 일반지능(AGI-Artificial general intelligence)과 인간의 지능을 넘어서는 수퍼지능(superintelligence)로 나뉘어져요. 우리 대화 중 사회 경제 전반에서 널리 쓰이는인공지능은 일반지능, 인간을 위협하는 인공지능은 수퍼지능을 일컫는거죠.
기자: 이런 AI는 인류의 이익을 위해서 쓰이는 것 그 이상이 되어 인간을 지배할 수도 있기 때문에 개발을 하면서도 이에 관련된 법적 제재 사항도 함께 만들어야 할 것 같아요.
남편: 유전자 재조합 식품(GMO-Genetically Modified Organism) 개발을 계속해서 하고 있다가 안정성 문제 등으로 인해 사회적 이슈가 되고 있잖아요. GMO가 아닌 식품을 골라서 사기도 하구요. 유전자를 변형하고 재조합 하는 것이 결국엔 자연의 섭리를 해치는 것이니까요. 그런 것처럼 AI 개발에도 제동을 걸 수 있는 제도적 장치가 있어야 문제가 덜 발생할 것으로 보여요.
기자: GMO를 먹지 않으려고 하는건 이미 나온 결과물에 대해서 사용하지 않겠다는 것이고, AI는 어느 정도 수준까지의 결과물이 나오지 않도록 미리 법적 제재를 해야 한다는 것으로 둘의 비교는 적절치 않은 것 아닌가요?
남편: GMO 문제점을 인간이 보고 구매하지 않으려고 하는 것처럼, AI 개발에 관련해서도 그 부작용을 미리 생각하여 법적 제재를 만드는 것이 현명하다고 생각한다는 거예요.
기자: 결국엔 우리가 중점을 두어야 하는건 기술의 발전이 반드시 필요하긴 하지만, 그 기술을 유용하게 사용하는 방법으로 개발을 진행해야 하고, 수퍼지능으로 인해 양산되는 문제들을 최소화 시키도록 개발 제한 등의 노력을 해야 한다는 것이겠군요.
남편은 쉬는 시간이나 업무가 끝난 시간에, 기자는 아기가 잠든 시간에 자료를 수집하고 하브루타 내용을 준비하였다. 자료를 모아 브레인스토밍(brainstorming)하고 논리적으로 풀어서도 생각하며 준비하는 하브루타는 질문을 받고 순발력있게 대답하는 하브루타와는 또 다른 새로운 느낌이었다. 준비 과정을 거친 하브루타는 상대방에게 자신의 의견을 전달할 때 논리적으로 말할 내용을 생각하도록 근거를 수집할 시간이 생긴다는 장점이 있는 것 같다. 앞으로도 다양한 주제로 다양한 방법으로 하브루타를 해봐야겠다.
수원하브루타부모기자 김향하