코딩하는 공무원

괄호가 만든 세계 : 옥스퍼드대 교수가 집약한 의식기계의 차가운 미래 (마이클 울드리지 저, 김의석 역 / RHK, 2023.10.30) 본문

도서

괄호가 만든 세계 : 옥스퍼드대 교수가 집약한 의식기계의 차가운 미래 (마이클 울드리지 저, 김의석 역 / RHK, 2023.10.30)

코딩펀 2023. 12. 2. 21:24

새로운 관점의 인공지능 교양서. 인공 지능을 가능케 한 '기술' 에 집중하기 보다는 인간과 기계의 근본적인 간극, 또는 철학을 집요하게 파고드는 책. 인공지능에 대한 막연한 기대와 두려움을 그 간의 연구 사례들을 중심으로 정리해 준다. 제목의 '괄호'는 Lisp 라고 하는 컴퓨터 언어의 기본적인 구조인 '소괄호'를 의미하기도 하지만, 인공지능의 미래에 대한 막연함도 포함된다. ★ ★ ★ ★ ★

 

인공지능 연구자들은 챗봇의 속임수를 걸러내고 진정한 지능을 찾아낼 수 있도록 튜링 테스트 개선 방안을 고민하기 시작했다. 간단한 개선 방안 가운데 하나는 이해력을 평가하는 것이다. 연구자들은 이를 위해 위노그라드 스키마 테스트를 만들어 이용한다. 이 테스트에서는 다음과 같이 짧은 질문들이 주어진다.

문장1a: 시의회 의원들은 그들이 폭력을 두려워했기 때문에 시위자들에게 허가를 내주지 않았다.
문장1b: 시의회 의원들은 그들이 폭력을 찬성했기 때문에 시위자들에게 허가를 내주지 않았다.
질문: 누가 폭력을 두려워했는가? 누가 폭력을 찬성했는가?

밑줄 친 단어를 빼문 문장 1a와 문장 1b는 정확히 똑같다. 그러나 그 작은 차이로 인해 두 문장의 의미는 크게 달라진다. 위노그라드 스키마 테스트의 핵심은 각각의 문장에서 '그들'이 누구를 가리키는지 맞추는 것이다. 문장 1a에서는 '그들은' 명확히 시의회 의원들을 의미한다. <중략> 반면, 문장 1b에서 '그들'은 시위자들을 뜻한다. <중략>

다른 예를 살펴보자.

문장2a: 트로피가 갈색 가방에 들어가지 않는데, 그것이 너무 작기 때문이다.
문장2b: 트로피가 갈색 가방에 들어가지 않는데, 그것이 너무 크기 때문이다.
질문: 무엇이 너무 작습니까? 무엇이 너무 큽니까?

분명 문장 2a에서는 갈색 가방이 너무 작고, 문장 2b에서는 트로피가 너무 크다는 뜻이다. 글을 읽고 쓸 수 있는 성인이라면 대부분 위의 두 예제 혹은 그와 비슷한 문제에 쉽게 답할 수 있다. <중략> 싸구려 속임수로 무장한 챗봇이나 뢰브너 콘테스트 참가 프로그램들은 이런 질문에 쉽게 답할 수 없다. <중략> 예를 들어 문장 1a와 1b의 차이를 이해하려면 "시위가 종종 폭력으로 이어질 수 있다."와 같은 시위 관련 지식이나 "시의원들은 시위 허가권을 가지고 있으며, 폭력으로 이어질 수 있는 상황을 피하려 한다."와 같은 시의원 관련 지식이 필요할 수 있다. (p48~p49)
사람이 사는 세상과 세상에서 사람 사이의 관계를 지배하는 불문율을 이해하게 만들려는 시도도 있다. 심리학자이자 언어학자인 스티븐 핑커가 제시한 짧은 문장을 보며 생각해 보자.

밥: 나는 이제 당신을 떠나려 해.
엘리스: 도대체 그 여자가 누구야?

<중략> 도대체 어떻게 프로그래밍해야 컴퓨터가 이런 대화를 이해할 수 있을까? <중략> 사람 사이의 믿음, 바람, 관계를 이해할 수 있는 상식과 일상적인 능력이 반드시 필요하다. 사람들은 모두 이런 능력을 갖추고 있다. 강 인공지능과 약 인공지능에도 이런 능력이 꼭 필요하다. 그러나 이런 능력을 어떻게 갖출 수 있을지는 여전히 불확실하며 아직까지 어느 누구도 제대로 성공하지 못했다. 이야기를 이해하고 관련 질문에 답할 수 있는 능력은 아직 컴퓨터에게는 먼 이야기다.(p50~p51)
1970년대 후반, NP 완전 문제와 조합적 폭발이라는 두 어두운 그림자가 인공지능 연구에 그늘을 드리우기 시작했다. 인공지능 연구는 계산 복잡도라는 장벽에 막혀 멈춰 섰다. (p99)
인공지능 연구의 중심이 다시 한번 바뀌기 시작했다. 전문가 시스템이나 논리 추론기 같은 현실성 부족한 인공지능 시스템을 벗어나 에이전트를 만들기 시작했다. 에이전트는 주요 기능을 자체적으로 갖고 있으며 특정 환경에서 특정한 일을 사용자 대신 수행한다는 측면에서 완전한 인공지능 시스템을 지향했다.(p157)
신경망 기술 기반 딥러닝이 의심의 여지없이 큰 성공을 거뒀지만 잘 알려진 대로 몇가지 문제점이 있다.
첫째, 구현된 지능의 실체가 불명확하다. 딥러닝에서 신경망의 지능적 능력은 뉴런 사이의 연결에 설정된 가중치로 구현된다. 그러나 아지 우리는 이 가중치에 담긴 의미를 이해하거나 해석하지 못한다.
<중략>
둘째, 딥러닝 기술은 오류에 민감하다. 예를 들어 사람은 인지하지 못할 만큼 아주 조금 사진을 변형시켰을 때, 딥러닝 프로그램은 이전과는 완전히 다른 답을 내놓을 수 있다. (p210)
만약 이런 양 극단을 제외한 중간 레벨에서 운전자가 자동차에 앉아 있다면 그는 자신의 역할에 대해 불명확게 느낀다. (p256)
인공지능 에이전트는 트롤리 딜레마 혹은 그와 비슷한 상황에 처하면 어떻게 해야 할까?
첫째, <중략> 세계 최고의 철학자들이 명확히 해결할 수 없는 트롤리 딜레마를 인공지능 시스템이 풀어야 한다고 생각하는 일이 과연 합리적일까?
둘째, 나는 지난 수십 년간 차를 몰았지만 트롤리 딜레마와 같은 상황에 처한 적이 한 번도 없없다. <중략> 또한 운전면허를 받기 위해 윤리학 시험을 통과할 필요 따위는 없다. 트롤리 딜레마는 내 삶에서 문제가 된 적이 한번도 없었다.(p277~278)
2017년 독일 연방 정부가 만든 <자동차 윤리적 의사결정에 관한 실제 지침> 에는 다음과 같은 내용이 담겨 있다.
- 위험한 순간에 처했을 때, 재산보다 사람을 구하는 일이 언제나 더 중요해야 한다.
- 사고를 피할 수 없을 때. 동작 결정 과정에서 나이, 성별 등과 같은 사람들의 물리적 특성을 고려해서는 안된다.
- 모든 순간 사람과 컴퓨터 가운데 책임있는 운전자가 명확해야 한다.
- 모든 순간 책임있는 운전자를 기록해야 한다. (p279)
의식기계를 만들기 위해 다음과 같이 제안해보고자 한다. <중략> 고차 지향적 추론이 담긴 정교한 거짓말을 분간해야 하는 시나리오나 다른 대상과 의사소통하고 자신이나 다른 대상의 정신 상태를 표현해야 하는 시나리오에 대해 스스로 학습할 수 있는 머신러닝 프로그램이 있다고 가정해 보자. 내 생각에 이런 시나리오를 제대로 학습할 수 있는 시스템이 있다면 이는 의식기계라는 궁긍적인 목표에서 의미있는 이정표가 될 것이다. (p362)
샐리 앤 테스트는 진단받는 아이에게 들려주거나 보여주는 짧은 이야기로 다음과 같다.

샐린와 앤이 방에 함께 있다. 방에는 바구니, 상자, 공이 있다. 샐리가 공을 바구니에 넣고는 방 밖으로 나간다. 샐리가 방에 없는 동안, 앤이 바구니에서 공을 꺼내 공을 상자 안에 넣는다. 조금 있다가 샐리가 방에 돌아왔으며, 공을 가지고 놀려 한다.

아이는 "샐리는 공을 찾기 위해 바구니와 상자 가운데 어떤 것을 살펴볼까?"라는 질문을 받는다. 이 질문에 대한 답은 당연히 '바구니'다. 쉬운 문제처럼 보이지만 올바르게 답하려면 다른 사람의 믿음에 대한 추론을 할 수 있어야 한다. 샐리는 앤이 공을 옮기는 것을 보지 못했기 때문에 공이 바구니에 있을 것이라 믿는다. 그러나 자폐증에 걸린 아이들 대부분은 정상적인 아이들과는 달리 '상자'라고 틀리게 답한다.(p363)
Comments