챗GPT

녹색 장막 뒤의 챗GPT

SERVICE DESIGN 2023. 5. 6. 13:39

이미지출처 : https://cacamaru.com/characterlist/toto/10-%EC%98%81%ED%99%94-%EC%98%A4%EC%A6%88%EC%9D%98-%EB%A7%88%EB%B2%95%EC%82%AC/

 

“우리에게 했던 약속을 지키세요!”
도로시가 외쳤다.

사자는 마법사가 겁을 먹도록 하는 게 좋겠다는 생각이 들어 아주 크고 우렁차게 울부짖었다. 그 소리가 너무나 사납고 무서워서 토토는 깜짝 놀라 펄쩍 뛰어 달아나다가 구석에 서있던 칸막이에 부딪혔다. 칸막이가 그들 앞으로 쿵하며 넘어졌고, 그다음 순간 그들 모두는 놀라움으로 가득 찼다. 칸막이로 가려져 있던 곳에 대머리에 주름투성이 얼굴을 한 조그맣고 나이 든 사람이 서 있는 것을 보았기 때문이다. 
그 사람도 도로시와 친구들만큼이나 크게 놀란 것 같았다. 양철나무꾼은 도끼를 치켜들고 그 조그만 사람에게 달려들면서 외쳤다.
“당신 누구야?”
그 조그만 사나이가 떨리는 목소리로 말했다.
“내가 바로 위대하고 무시무시한 오즈다. 그러니 날 해치지 마시오. 원하는 건 무엇이든 해줄 테니 제발 나를 해치지 마시오.”
우리의 친구들은 놀라움과 실망감에 가득 차서 그 남자를 쳐다보았다.
도로시가 말했다.
“난 오즈가 커다란 머리라고 생각했는데.”
허수아비가 말했다.
“난 아름다운 요정인 줄 알았어.”
양철나무꾼이 말했다.
“난 오즈가 무시무시한 야수라고 생각했지.”
사자도 큰 소리로 말했다.
“난 오즈를 불덩어리로 생각했어.”
조그만 남자가 미안한 듯 말했다.
“아니야, 너희들 모두 틀렸어. 그렇게 믿도록 내가 속였지.”
도로시가 소리쳤다.
“속였다고요? 당신은 위대한 마법사가 아닌가요?”
“쉿, 그렇게 크게 얘기하지 말라고, 아가씨. 누가 엿듣기라도 하면 난 끝장이야. 난 위대한 마법사인척 했을 뿐이야.”
...
'오즈의 위대한 마법사'(프랭크 바움, 1900년) 중에서 발췌


chatGPT, 위대한 오즈의 비밀

챗GPT와의 대화는 마치 지구에 새로 나타난 이성을 가진 생명체와 대화하는 것 같은 느낌을 불러일으켰다. 챗GPT의 답에 대해 우리는 "잘했어" 또는 "고마워"라고 답하곤 했고, 때로 그 영리함에 경외감을 느끼기도 했다. 과도한 질문으로 몰아붙여야 할 때는 이렇게까지 부려먹어도 되나 하는 미안한 마음이 들었다.
그렇다. 그것은 분명 챗봇을 미리 녹음된 전화기의 자동응답기나 자동화된 컴퓨터 반응정도로만 여겨왔던 이전과는 완전히 다른 차원의 '감정'이었다.

대중의 관심은 호기심의 수준을 넘어 열광하는 단계로 빠르게 발전했고 냉정한 AI 전문가들은 사람들에게 차분히 설명하기 시작했다. AI가 세상을 바꿀 기술 혁신인 것은 분명하지만, 그렇다고 해서 마치 AI에 자아나 인지능력이 생긴 것 마냥 호들갑을 떨 필요는 없다는 것이 그들의 의견이었다. 그런 지적에도 불구하고 많은 사람들은 다양한 목적의 글쓰기에 챗GPT를 사용했고 결과에 환호했다. 마치 무슨 소원이든 들어줄 위대한 마법사 오즈가 나타난 것 같았다.

챗GPT는 책 수백만 권과 인터넷 등 엄청난 양의 데이터를 주입한 ‘언어 모델’ 알고리즘이다. 여러 단어와 구문을 숫자로 바꾸어 광활한 가상의 공간에 배열하고 수많은 계산을 수행해 서로의 관계를 파악하는 거대한 단어 퍼즐 풀기와 같다. 메시지가 들어오면 방대한 말뭉치 패턴을 분석해 어떤 대답을 내놓는 것이 최적의 값인지를 예측한다. 가장 높은 확률로 나올 수 있는 단어들을 결합해 가장 적합한 답을 만들어낸다. 그리고 그 작업의 결과는 너무나 근사하다.
챗GPT의 대답이 실제로는 엄청난 양의 확률 계산의 결과일 뿐이라는 사실을 알고 나면, 위대한 오즈의 마법사가 보잘것없는 늙은이였다는 진실을 알게 된 도로시와 같은 심정이 된다.
챗봇의 답은 여전히 훌륭했지만, 도로시 일행을 두근거리게 했던 것 같은 경외심은 사라졌다.


AI에 대한 이해는 인간에 대한 통찰을 넓힌다

챗GPT 같은 언어 모델의 인상적인 성능은 한편으로 인간의 지성과 감정에 대한 본질적 의문을 제기한다. 일부 학자들은 AI가 인간의 반응을 그토록 설득력 있게 시뮬레이션할 수 있다면, 우리의 생각과 감정은 본질적으로 우리 뇌에서 작동하는 복잡한 알고리즘의 산물일지도 모른다고 주장한다. 신경과학자와 AI 연구자들은 오래전부터 인간의 인지와 인공지능의 유사성에 매료되어 왔다. 일부 전문가들은 인간의 뇌가 상호 연결된 신경망을 통해 정보를 처리하고 패턴 인식과 예측을 통해 의사 결정과 감정에 도달하는 등 AI와 유사한 방식으로 작동한다고 주장한다. 
AI의 개념을 창시해 ‘인공지능의 아버지’로 불리는 마빈 민스키(Marvin Minsky)는 인간의 뇌는 본질적으로 계산 규칙을 따르는 뉴런과 시냅스의 복잡한 시스템인 '고기기계 meat machine'에 불과하다고까지 주장한 바 있다. 마찬가지로 신경과학자 크리스토프 코흐(Christof Koch) 박사는 의식이 뇌 내 계산 과정의 상호작용에서 발생한다는 이론을 세웠다. 인간의 지성과 감정이 실제로는 뇌 알고리즘의 부산물에 불과하다는 주장으로, 실체가 무엇인지는 알 수 없지만 같은 결과를 보인다면 본질적으로 같다고 말하는 관점이라 할 수 있다. 

반면 일부 학자들은 인간의 인지와 인공지능은 결정적 차이가 있다고 주장한다. 아무리 같은 결과로 표현된다고 해도 그것으로 본질에 어떤 차이가 있는지는 알 수 없다는 관점이다. 이들은 인공지능이 인간과 유사한 반응을 시뮬레이션할 수는 있지만 그것이 이해, 의식, 자기 인식을 설명하는 것은 아니라고 말한다. 저명한 철학자 존 설(John Searle)은 '중국어 방' 사고 실험에서 인공지능이 인간의 이해를 모방할 수는 있지만 이해나 의식을 가지고 있지는 않다고 주장했다.
* 주 : 중국어 방 사고 실험이란 튜링 테스트(기계의 지능 테스트)로는 기계의 인공지능 여부를 판정할 수 없다는 것을 논증하기 위해 고안한 유명한 사고 실험이다. 방 안에 중국어를 모르는 참가자를 넣어둔 후, 중국어를 변형할 수 있는 일종의 프로그램 지시가 적힌 책과 필기도구를 제공한다. 이 상태에서 중국인 심사관이 중국어로 질문을 써서 방 안으로 넣으면, 참가자는 중국어를 전혀 모르더라도 책을 토대로 알맞은 대답을 중국어로 써서 심사관에게 건네준다. 관찰자는 참가자가 중국어를 알고 있다고 해석하겠지만, 실제로 참가자는 그 과정에서 무엇인가를 인지하거나 이해하지 못했다. 참가자를 인공지능 기계라고 한다면 그것은 지능을 가졌다고 말할 수 없다.

AI 언어 모델의 놀라운 성능에 대해 흥분하고 경외감을 느낄 수 있지만 생성형 AI의 창작물은 본질적으로 복잡한 알고리즘, 방대한 양의 데이터, 압도적인 많은 계산의 결과라는 점을 상기해야 한다. 챗GPT도 오즈처럼 다양한 외연으로 사람들에게 활용되고 있다. 장막에 숨어 환상을 만드는 마술과 같은 기술의 근본 원리를 이해하고 강력한 도구로 활용할 수 있어야 한다. 

또한 도로시와 그 일행이 외부에서 답을 찾으려 했지만 필요한 것은 각자가 이미 가지고 있었다는 것을 깨닫게 되었던 것처럼 AI를 세계의 문제를 탐구하는 데 사용하는 것 외에도 인간 지성과 감정의 복잡성을 이해하는 도구로 활용한다면 인간에 대한 통찰력을 더 많이 얻을 수 있게 될지도 모른다.
세계의 과제를 해결하고 인간을 더 잘 이해하는 데 도움이 되는 귀중한 도구로 AI의 잠재력을 최대한 활용하려면 명확하고 정보에 입각한 접근법을 채택할 필요가 있다. AI의 한계와 본질에 대한 지식이 바탕이 되어야 AI를 삶의 질 향상과 인류 진보를 위해 보다 잘 활용할 수 있을 것이기 때문이다.


2023.5.6.
윤성원 + chatGPT
#chatGPT글쓰기