챗GPT

AI의 거짓말, 누가 책임져야 하나?

SERVICE DESIGN 2023. 2. 3. 04:24

AI는 오답을 낼 수 있다. 사용자는 AI의 오답을 믿고 의사결정한 결과 막대한 피해를 입을 수도 있다. 그 책임은 누구에게 있을까? 이러한 책임관계를 이해하는 것은 AI가 책임감 있고 윤리적인 방식으로 개발 및 사용되게 하고, 사용자들이 잠재적인 위험을 피할 수 있도록 하기 위해 중요하다.

일이 잘못되어 책임을 묻는다면 결과의 원인인 당사자들이 그 대상이 되어야 한다. 그리고 책임 배분은 결과에 얼마나 역할을 했는가에 따라야 한다. 책임의 배분은 구체적 상황과 피해에 대한 책임 정도에 따라 달라지겠지만 대체로 '시스템의 개발자', '시스템의 운영자', '오답을 만들어 낸 AI', '오답에 의존한 사용자'가 대상이 될 것이다. 

예를 들어, AI가 결함이 있는 방식으로 설계되고 구현되었거나 목적을 벗어나 사용되었다면, 시스템의 개발자와 운영자가 위해에 대한 책임 대부분을 부담해야 할 것이다. 제품 하자로 인해 피해가 생겼을 때 제조사나 운영자가 책임을 지는 것과 마찬가지다. 한편, 소프트웨어의 버그나 AI와 그 환경 간의 예기치 못한 상호작용 등 개발자와 운영자가 통제할 수 없는 요인에 의해 피해가 발생했다면 그 책임은 개발자와 운영자, 그리고 'AI시스템' 자체가 분담할 수 있다.

어떤 사람들은 AI가 인간의 통제와 독립적인 결정과 행동을 할 수 있다고 주장하기도 한다.(관련기사) 그 주장에 따른다면 AI가 야기하는 문제에 대해서도 AI가 책임을 져야 한다고 할 수 있다.
지난달 국제학술지의 양대산맥인 ‘네이처’, ‘사이언스’가 ChatGPT와 같은 인공지능을 논문 저자로 인정하지 않기로 결정(관련기사)했고 다른 학술지도 비슷한 입장을 취할 것으로 보인다. “저자에게는 연구물에 대한 책임이 따르는데, 인공지능 도구는 그런 책임을 질 수 없기 때문"이 이유였다. 아직까지는 이와 같은 입장이 보편적이고 AI는 인간이 만들고 운영하는 도구로 간주되고 있기 때문에 AI로 인한 위해에 대한 책임은 일반적으로 시스템의 개발자, 운영자에게 있다고 할 수 있겠다.

법제도는 타인에게 피해를 입힌 자를 처벌하는 규칙을 통해 사회 정의를 실현하고 문제를 예방하는 기능을 한다. 죄를 저지르면 벌을 받는 규칙이 엄격히 지켜지는 이상, 사람들은 죄를 저지르지 않으려 할 것이다. AI는 자유와 생존에의 의지, 의도, 동기, 욕망, 목표가 없고 명백한 거부감이나 회피로 보이는 것도 실은 프로그래밍이나 알고리즘의 결과일 뿐이기 때문에 처벌이란 개념도 실효가 있을 수 없다. 따라서 아직 AI에게 인간에게 주어지는 것 같은 개념의 형벌을 줄 방법은 없어 보인다.

그렇다면 기존 사법체계는 AI의 책임과 처벌에 대해 어떤 대안을 모색해야 할까? AI의 책임과 처벌은 법조계와 윤리계에서 논의되고 있는 사안이지만 아직 초기 단계이며 AI에 대한 책임을 결정하는 데 널리 받아들여지는 프레임워크가 없다. 앞으로 AI의 책임에 관한 문제는 점점 더 중요해질 것이고 이러한 복잡한 문제를 해결하기 위해 새로운 법적, 윤리적 방안을 모색해야 할 것이다.
AI의 책임과 처벌의 문제에 대한 대안적 접근법은 다음과 같다.

첫째, 이러한 시스템을 만들고 설계하고 배치하는 데 관련된 인간 행위자에 초점을 맞추는 것이다.
여기에는 AI의 개발자와 운영자 등 AI의 서비스 제공자들이 포함될 수 있다. 이 개인들은 그들의 AI가 안전하고 윤리적이며 사회적 가치와 일치하는 방식으로 설계되고 운영되도록 할 책임이 있다. 그들은 또한 AI가 해를 끼치거나 실수를 할 경우 조치를 취해야 할 책임이 있다. 그들에게 주어지는 책임과 처벌은 AI가 반사회적 의도를 갖지 않는 방향으로 개발, 운영되게 하는 역할을 할 것이다. 

둘째, AI시스템 자체에 영향을 미치는 것이다.
현재 AI는 의식이 없는 피조물일 뿐이나 언제까지나 그 상태일리는 없다. 의식이 있는 대상으로 법의 사정권에 들기 전까지는 AI의 힘을 조절함으로써 사법체계가 의도하는 목적을 구현할 방법을 찾아야 할 것이다. AI의 영향력을 줄인다면 피해도 줄어들 것이다.
핵은 국가간 협의된 규칙을 통해 개발과 사용을 금지한다. 파괴의 영향력을 통제하는 것은 핵과 관련해 생길 수 있는 문제를 사전 예방하기 위한 중요한 조치이다. AI의 위험을 줄이기 위해 그것의 힘을 줄이거나 발전을 제한하는 것은 인간에 대한 '처벌'에 상응한 조치일 수 있을 것이다.

셋째, AI의 개발과 활용에 관한 규정과 표준을 개발하고 시행하는 등의 사전적 조치를 하는 것이다.
이러한 규정은 데이터 개인 정보 보호, 윤리적 고려 사항 및 투명성과 같은 문제를 해결하고 AI가 안전하고 윤리적이며 책임감 있는 방식으로 개발 및 사용되도록 할 수 있을 것이다. 또한, AI의 부정적인 영향을 모니터링하고 완화하는 조치와 안전과 신뢰성을 개선하기 위한 지속적인 연구개발이 포함될 수 있다. AI가 야기할 수 있는 잠재적 피해를 줄임으로써, 사회는 AI 사용과 관련된 위험을 더 잘 관리하고 완화할 수 있다.

넷째, AI로 인해 피해가 발생되었을 때 피해자에게 구제를 제공할 수 있는 책임 및 보상 체계를 개발하는 것이다.
여기에는 AI와 관련된 청구를 처리할 독립 기관이나 특별 법원을 설립하는 것이 포함될 수 있다. 이 기관이나 법원은 피해 내용을 조사하고, 책임을 할당하고, 보상을 줄 수 있다.

AI로 인해 발생한 피해에 대한 책임과 처벌은 복잡하고 어려운 문제다. 이에 관해 법조계와 윤리계에 아직 널리 받아들여지는 틀은 존재하지 않는다. 대안적 접근법으로는 AI를 만들고 배치하는 인간 행위자에 초점을 맞추고, 위험을 줄이기 위해 AI의 영향력을 줄이고, AI 개발과 배치를 통제하기 위한 규정과 표준을 구현하고, 책임과 보상 체계를 개발하는 것 또는 아직 개발되지 않은 다른 무엇일 수 있다. 이러한 시도는 AI가 책임감 있고 윤리적인 방식으로 개발되고 사용되도록 보장하는 동시에 사용자들에게 안도감을 주는데 도움을 줄 수 있을 것이다.

강력하지만 거짓말하는 데도 거침이 없는 AI의 역할과 책임에 대해 우리는 서둘러 연구하고 다양한 대책을 마련해야 한다. AI기술은 하루가 다르게 무시무시하게 성장하고 있다. 해안방벽 공사를 못했는데 몰려오는 쓰나미처럼.


2023.02.03. 윤성원 + chatGPT

#chatGPT글쓰기
'오답'이라는 범죄, 인공지능은 어떻게 책임질 것인가?라는 제목으로 챗봇과 대화한 내용을 정리함


관련해 읽어볼만한 글 :

“AI, 인지능력 있다” 주장한 구글 직원 해고
https://www.chosun.com/international/international_general/2022/07/23/7W6QMBPFABGUNA3FMPZWE46GRU/

“인공지능, 논문 저자 못 된다” 네이처·사이언스의 교통정리
https://www.hani.co.kr/arti/science/science_general/1077316.html

의학계에도 파장 일으키는 챗GPT…의학교육·논문에도 영향
http://www.docdocdoc.co.kr/news/articleView.html?idxno=3002315

인공지능, 창의성 충만해도 자기반성 능력 형편없다
http://www.kyosu.net/news/articleView.html?idxno=99799