챗GPT

AI가 우리의 결정권을 빼앗아 갈 수 있을까? 그것이 대통령 선거라면?

SERVICE DESIGN 2023. 3. 22. 11:39

Pexels에서 Element5 Digital님의 사진:  https://www.pexels.com/ko-kr/photo/1550337/

 

 

대통령 선거가 시작되었다. 부도덕한 정치인과 악의적인 집단은 인공지능(AI)을 이용해 여론을 왜곡할 수 있는 막대한 양의 콘텐츠를 생성한다. 선거를 며칠 앞두고 대중의 지지를 받던 유력한 대통령 후보가 추악한 행동을 하는 모습을 담은 동영상이 공개되면서 파멸의 순간이 찾아온다. 동영상은 웹 곳곳에 보지 않을 수 없게 빈번히 노출되면서 입소문을 타 수백만 건의 조회를 기록하였고 국민들의 분노를 불러일으켰다. 후보의 평판은 돌이킬 수 없게 손상되었고, 선거에 실패하면서 실질적 정치 생명이 끝났다. 알고 보니 동영상은 경쟁 후보 측에서 스캔들 조작을 위해 첨단 AI 기술로 만들고 배포한 딥페이크 영상이었다. 

우리는 역사상 가장 강력한 도구를 가지게 되었다. 좋은 사람들이 강력하게 통제하면서 이 도구를 사용한다면 이롭게 쓰이겠지만 계획대로 되지 않을 수도 있다. 선한 사람들도 AI기술을 오해하고 오용할 수 있으며 그렇게 되면 아무리 좋은 의도에서 시작했더라도 나쁜 결과가 나올 것이다. 악한 사람들이 악한 의도로 사용한다면 예외 없이 나쁜 일이 일어날 것이다. 더 나아가 AI가 인간의 통제를 벗어난다면, 어느 누구도 바라지 않은 최악의 결과로 이어질 수 있다. 

이 시나리오처럼 AI가 악한 의도로 선거나 선전, 선동에 사용되는 경우 어떤 일들이 일어날 수 있을까 예상해 보자.
민주주의의 침식: AI가 악용된다면 조작된 정보와 표적 조작에 노출된 유권자들이 흔들리면서 민주적 절차를 약화시킬 수 있다.
양극화의 심화 : AI로 생성된 콘텐츠는 사회를 더욱 분열시킬 수 있으며, 개인은 점점 더 자신의 견해에 고착화되고 대화에 덜 개방적이 될 수 있다.
프라이버시 침해 : 선거 캠페인 등에서 AI를 사용하면 캠페인이 표적 선전을 개발하기 위해 다양한 방법으로 과다한 개인 정보를 수집하기 때문에 개인 정보 유출 및 프라이버시 침해 등의 사고로 이어질 수 있다.
자원의 잘못된 할당 : AI로 생성된 콘텐츠가 널리 보급됨에 따라 정부와 조직은 잘못된 정보에 대응하기 위해 상당한 자원을 투입해야 할 수 있으며, 이로 인해 필수 서비스에 사용되어야 할 자금을 전용하게 될 가능성이 있다.

딥페이크 동영상 사건의 소름 끼치는 시나리오는 AI 오용의 위험성이 허구의 영역에 국한되지 않을 수 있음을 보여주는 예이다. 이 시나리오가 현실화되지 않도록 신속한 조치를 취하고 민주주의와 공영을 위한 선을 지키기 위해 끊임없이 노력해야 할 것이다. 이에 대해 우리는 어떤 대비를 할 수 있을까?

대중의 인식 제고 및 교육: 대중에게 AI로 생성된 콘텐츠의 위험성을 알리고 디지털 리터러시를 장려하면 개인이 더욱 분별력 있는 정보 소비자가 될 수 있다.
규제 및 감독 : 정부는 규제 프레임워크와 감독 기관을 설립하여 선거에서의 AI 사용을 모니터링하고 남용을 방지할 수 있다.
기술 솔루션 : 오해의 소지가 있는 콘텐츠를 탐지하고 플래그를 지정할 수 있는 고급 AI 기반 도구를 개발하고 배포하면 잘못된 정보 캠페인에 대응하는 데 도움이 될 수 있다.
투명성 증진 : 정당과 조직이 AI 사용에 대해 투명하게 공개하도록 장려하면 신뢰를 쌓고 악의적인 행동을 막을 수 있다.
협업 촉진 : 정부, 기술 기업, 시민단체가 협력하여 선거에서 AI 활용 모범 사례를 개발하고 리소스를 공유하여 잘못된 정보에 대응할 수 있다.

이러한 대응책에도 불구하고 일부에서는 AI 시스템의 복잡성과 빠르게 진화하는 기술 환경으로 인해 완벽한 탐지 및 완화 전략을 개발하는 것이 어렵다고 말할 수 있다. 하지만 AI 시스템과 기술이 복잡하다고 해서 포괄적인 해결방안을 추구할 수 없는 것은 아니다. 데이터 엔지니어, AI 엔지니어, 정부, 시민단체가 협력하면 이러한 문제를 해결할 수 있는 새로운 기법과 기술을 개발할 수 있다. 또한, 이러한 이해관계자들 간의 지속적인 전문 지식의 교환과 협력은 적응력과 회복력을 갖춘 환경을 조성하여 새로운 위협에 앞서 나갈 수 있게 해 줄 것이다. 

미래에는 인간의 역할이 유일한 의사 결정자가 아닌 AI의 감독자이자 협력자로 바뀔 수 있다. AI의 분석 능력이 인간의 통찰력을 보완함으로써 빈곤, 불평등, 기후 변화와 같은 시급한 과제들에 대한 해결 능력이 향상될 수도 있다. 오픈AI의 CEO 샘 알트먼이 제시한 chatGPT의 비전(https://youtu.be/ydJLMnvYNFo)처럼, 인공지능이 인간의 능력을 효과적으로 보완하는 세상이 온다면 사회의 다양한 측면이 크게 변화될 수 있을 것이다. AI시스템은 정책, 경제 성장, 사회 발전의 효과를 객관적으로 측정하여 편견과 불일치를 없앨 수 있다. 개선이 필요한 영역을 식별함으로써 AI는 더 나은 정보에 기반한 의사결정을 내리고 자원을 더 효율적으로 할당하는 데 도움을 줄 수 있다.

그러나 AI의 이러한 새로운 역할은 앞으로 인류와 AI가 어떻게 공존하게 될 지에 대한 윤리적, 철학적 질문을 제기한다. 
인류의 진보를 평가하고 교정하는 역할을 AI에게 맡길 수 있을까? AI 알고리즘이 편향되지 않고 우리가 공유하는 가치를 지키도록 하려면 어떻게 해야 할까? 어떻게 AI가 주도하는 의사 결정과 인간의 직관 및 창의성 사이의 균형을 유지할 수 있을까? 


AI가 보편화될 근미래의 전망은 극명하게 명과 암으로 나뉘고 있다. 어떤 이들은 일하지 않아도 풍요가 넘치는 장밋빛 미래를 꿈꾸고, 또 어떤 사람들은 하수도 아래에서 숨어 살게 되는 암울한 디스토피아를 그린다. 우리는 어떤 길로 가게 될까? 하수도가 지나친 걱정이 아닌 것으로 판명되길 바랄 뿐이다.
궁극적으로 우리가 어떤 길을 선택하느냐에 따라 우리 사회에서 AI의 역할이 결정될 것이다. 다양한 이해관계자의 고유한 관점과 기술을 활용해 AI의 잠재적 위험과 오용 가능성에 대처하기 위한 사전 예방적이고 협력적인 접근 방식을 채택하는 것이 필요하다.



2023.3.22.
윤성원 + chatGPT
#chatGPT글쓰기

(질문)
1. 인공지능의 발전속도가 인간의 피드백 루프를 벗어나게 된다면? 서비스 개선에 사용된다면 좋겠지만 선거에, 선동에 사용된다면? 역사상 가장 강력한 도구가 나타난 것이 맞는 것 같다. 선한 사람들이 강력하게 통제해서 좋은 도구로 사용될 수 있음을 말하는데 계획한 대로 되지 않는다. 선한 사람도 오용, 오해하면 나쁜 결과가 나올 수 있다. 악한 사람들에게 쓰인다면 나쁜 결과가 나올 것이다. 인간의 통제를 벗어난다면 나쁜, 또는 의도치 않은 결과가 나올 것이다. '대선이 시작되었다. 인공지능이 여론의 방향을 왜곡할만한 어마어마한 양과 질의 콘텐츠를 만들어낸다.'이 것을 시작으로 최악의 상황을 맞이하게 되는 이야기를 시나리오 형식으로 작성해.
챗GPT의 활용이 앞으로 사회에 미칠 영향을 우려하는 글을 쓰고, 이에 인류는 어떤 대비가 가능할 것인지 제시해 줘.


2. 위 부분을 AI엔지니어는 어떤 시각으로 반론할 수 있을까? 예상되는 반론을 '...라고 주장할 수 있다.'라고 전제하고 이에 대한 반론을 함으로써 전체 글의 설득력을 높여줘.

3. 위 글의 내용과 관련해서 인류 발전에 대한 평가와 교정의 역할을 AI가 하는 것으로 정해진다면, 그 뒤 세상은 어떻게 변할까?라는 주제로 글을 덧붙여 줘. 

작성된 내용을 일부 수정함.