(영상) AI와 함께 디자인하기 - 서비스랩런던. 2025.9.11.

2025. 10. 9. 17:36서비스디자인/서비스디자인 소식

Service Lab 2025년 9월 세션은 ‘AI 시대의 서비스디자인’을 주제로, 기술과 인간 중심 디자인의 접점을 탐구한다. Clara Greo는 ‘형평과 정의의 12가지 성찰 질문(12 Equity and Justice Prompts)’을 제시하며, AI 설계에서 책임성과 사회적 맥락을 고려해야 함을 강조했다. Yini Zheng은 행동과학, AI, 디자인을 결합한 행동 퍼소나(Behavioural Persona 2.0)를 소개했고, 오수영은 문제를 발견하고 재구성하며 해결하는 ‘디자인 만능인(Handyperson)’으로서의 실천 경험을 공유했다. Liberty-Belle Howard는 콘텐츠 디자인과 AI의 협업 미래를 다루며, 디자이너가 기술을 통제하고 신뢰 가능한 정보구조를 설계해야 한다고 강조했다.

AI와 함께 디자인하기 | 서비스랩런던 | 2025년 9월 11일

Service Lab London : 서비스디자이너 및 서비스디자인 관심자들이 서로 정보를 나누고 배우는 공간이다. 런던 중심으로 온라인·오프라인 이벤트를 정기적으로 연다. 최근 “Designing with AI” 워크숍, “Designing in Charities” 등의 이벤트가 있었다. 멤버 수는 약 6,280명으로 매우 활발한 커뮤니티이다.
https://www.meetup.com/service-lab-london/  

 

Service Lab London | Meetup

A place for service designers and people interested in service design to learn something new and talk to others. We welcome battle scarred practitioners, newbies and the service design curious. As service design grows as a discipline it's important to have

www.meetup.com


원본 영상 : https://youtu.be/xcB_zPvgG-4?si=9pofJ4ODmcNTNA1s  
번역 : 챗GPT (요약, 생략된 부분, 발언자 표기 오류가 있을 수 있습니다. 원본을 확인해주세요.)  

 

Clara Greo: 서비스디자이너이자 사회정의 기반 디자인 전략가로, ‘형평과 정의의 12가지 질문(12 equity and justice reflection prompts for AI)’을 제시하며 AI의 윤리적 설계 원칙을 다뤘다.
Yini Zheng: 헬스케어 분야 서비스디자이너로, 행동과학과 AI, 디자인을 결합한 ‘Behavioural Personas 2.0’을 발표했다.
오수영 Sooyoung Oh: 영국 로열 칼리지 오브 아트(RCA) 졸업생으로, 자신을 ‘디자인 만능인(Design Handyperson)’이라 소개하며 공공서비스 프로젝트 경험을 공유했다.
Liberty-Belle Howard: TPX Impact의 콘텐츠디자인 책임자로, ‘How AI is changing content design’에서 AI가 콘텐츠 구조와 정보 신뢰성에 미치는 영향을 설명했다.


Charlie:
Service Lab은 서비스디자인을 실천하는 사람들과 서비스디자인에 호기심이 있는 사람들이 모이는 커뮤니티입니다. 우리는 몇 달에 한 번씩 만나 서로의 배움을 나눕니다.
모두 Service Lab에 오신 것을 환영합니다. 익숙한 얼굴도 꽤 보이고, 처음 뵙는 분들도 보이니 정말 반갑습니다. 처음 오신 분들은 손을 한번 들어 주시겠습니까? 몇 분, 아니 꽤 많으시네요. 그래도 익숙한 얼굴도 많이 보입니다. 훌륭합니다. 감사합니다.
그리고 티켓을 아주 빨리 예매해 주신 것에도 감사드립니다. 우리 행사가 보통 빨리 매진되지만, 이번에는 기록을 세웠습니다. 3일 만에 매진되었습니다. 덕분에 온라인으로 전환해 더 많은 분들을 모실 수 있게 되어 정말 다행입니다.

처음 오신 분들을 위해 소개드립니다. Service Lab은 자원봉사로 운영되는 비영리 행사 시리즈입니다. 실무자들이 서로의 배움을 공유하고, 서로에게 영감을 주며, 새로운 것을 배우는 자리입니다.
여기가 운영진입니다. 저는 찰리 포이그리(Charlie Poigree)입니다. 제 소개는 잠시 뒤에 조금 더 드리겠습니다. 오늘 행사는 BestLing과 함께 진행합니다. 두 분도 곧 자기소개를 할 것입니다. 그리고 보이지 않는 곳에서 도와주는 로버트(Robert)가 있습니다. 로버트와 제니(Jenny)가 약 10년 전 Service Lab을 시작했습니다.
저는 약 7년째 운영을 맡고 있고, Best는 약 2년, Ling은 이제 1년이 다 되어 갑니다. 모두 자원봉사로 시간을 내고 있으며, 좋은 연사와 훌륭한 분들을 한자리에 모실 수 있어 큰 기쁨을 느낍니다.
또한 언제나 함께 도와주실 자원봉사자를 찾고 있습니다. 참여를 원하시면 꼭 말씀해 주시기 바랍니다.

저는 사용자 리서처이자 서비스디자이너입니다. Service Lab 운영은… 생각해 보니 7년쯤 된 것 같습니다. 슬라이드를 조금 업데이트해야겠습니다. 저는 포용적 디자인에 큰 열정을 가지고 있어 ‘인클루시블리(inclusively)’라는 작은 디자인 에이전시를 약 5~6년 전에 시작했습니다. 주로 헬스케어, 정부, 비영리 섹터에서 포용적 리서치와 공동디자인을 지원합니다.
그리고 오늘 연사와 운영진 모두가 시각적 설명을 드리려고 합니다. 저는 갈색 중간 길이의 머리를 한 백인 여성입니다. 오늘 빨강과 분홍색 귀걸이, 파란색 상의를 착용했습니다. 제 뒤에는 제가 만든 베개들이 놓인 다채로운 방이 보입니다. 이제 Best에게 마이크를 넘기겠습니다.

Best:
감사합니다, 찰리. 모두 안녕하세요. 런던에서 인사드립니다. 화면으로만 뵙게 되어 조금 아쉽지만, 샐비가 말했듯이 앞으로 대면 행사도 계속 있을 예정이니 그때 꼭 뵙기를 바랍니다. 제 이름은 Best Chalisa Inisan입니다. 저는 현재 서비스디자이너입니다. 지방정부 3곳의 IT 서비스 부문에서 일해 왔고, 그 과정이 도전적이지만 매우 보람찼습니다. 특히 내부 직원들이 더 매끄럽게 IT를 이용하도록 경험을 개선하는 일을 즐깁니다.
또한 Service Lab 운영 외 시간에는 아동·청소년을 지원하는 자선단체에서 자원봉사를 합니다. 해당 주제에 관심 있으신 분들과도 기꺼이 더 이야기하고 배우고 싶습니다.
시각적 설명을 덧붙이면, 저는 동남아시아계 여성이고 약간 그을린 피부 톤입니다. 짙은 머리를 하고 안경과 헤드폰을 착용했으며, 요즘 가장 좋아하는 줄무늬 셔츠를 입고 있습니다. 감사합니다.

Ling:
안녕하세요, 제 목소리가 잘 들리시나요? 좋습니다. 제 이름은 Ling입니다. 저는 원래 서비스디자이너였습니다. RCA의 서비스디자인 프로그램에서 공부했고, 작년에 졸업한 뒤 곧바로 Service Lab에 합류했습니다. 현재는 테크 스타트업에서 마케팅을 하고 있지만, 서비스디자인·그로스·마케팅의 균형을 계속 탐색하고 있습니다.
최근에는 일상 업무 효율을 높이는 차원을 넘어, 기업이 AI를 일상 업무에 통합·도입하도록 돕는 일도 많이 하고 있습니다. 그래서 오늘 행사가 정말 기대됩니다. 각 연사님들이 AI와 서비스의 접점을 어떻게 다루는지 빨리 듣고 싶습니다. 제 소개는 이 정도로 하겠습니다. 찰리께 다시 넘기기 전에, 짧게 시각적 설명을 드리겠습니다. 저는 라임, 아니면 민트색에 가까운 티셔츠를 입고 있습니다. 아주 밝은 거실에 앉아 있고, 창밖 하늘이 파랗습니다. 이따가 산책을 나갈 예정입니다. 감사합니다.

Charlie:
Ling, Best, 고맙습니다. 안내 말씀을 하나 드리겠습니다. 오늘 몇 장의 스크린샷을 찍을 수 있습니다. 보통은 오프라인 행사에서 사진을 찍는데, 오늘은 링크드인에 게시할 스크린샷을 Ling과 Best가 몇 장 캡처할 수 있습니다.
또한 오늘 세션은 녹화하고 있습니다. 녹화되고 싶지 않으시면 카메라를 꺼 주시기 바랍니다. 반대로, 오늘 행사가 좋았다면 더 많은 분들과 공유할 수 있도록 몇 주 뒤에 유튜브에 영상을 게시할 예정이니 확인해 보시기 바랍니다. 이전 행사 영상도 모두 올려 두었습니다.
커뮤니티 차원의 부탁도 있습니다. 행사 공간 추천을 늘 찾고 있습니다. 최소 60명 규모가 필요합니다. 그렇지 않으면 너무 빨리 매진되기 때문입니다. 그리고 반드시 접근성이 확보된 공간이어야 합니다. 멋진 공간을 알고 계시다면 꼭 알려 주시기 바랍니다. 최근에는 Cancer Research에서 몇 차례 행사를 진행했고, 원래 오늘 행사도 그곳에서 열릴 예정이었습니다.
또 발표를 원하시거나 듣고 싶은 주제가 있다면 언제든 알려 주십시오. 여러분이 정말 관심 있어 하는 주제의 행사를 만들고자 합니다. 아마도 이런 이유로 이번에도 매우 빨리 매진된 것 같습니다.
그리고 지난 1~2년 사이에 오랜만에 오신 분들을 위해 말씀드리면, 이제 5분 스피커 슬롯을 운영합니다. 서비스디자인이나 사용자 리서치 분야로 진입하려는 분들을 위한 자리입니다. 이 분야를 시작하는 일이 쉽지 않다는 것을 알기에, 여러분의 생각과 바람을 공유할 기회를 드립니다. 본인이나 주변에 관심 있는 분이 계시다면, 앞으로 이 슬롯에 참여해 주시기 바랍니다.

이제 본 프로그램으로 들어가겠습니다. 오늘 라인업을 소개합니다.
먼저 Clara님, 프리랜스 디자인·리서치 리더이자 역량 구축가, 트레이너입니다.
다음은 Yini님, 임페리얼 칼리지 헬스케어 트러스트의 시니어 서비스디자이너입니다.
그다음은 수영님, 서비스디자이너이자 디자인 리서처로서 최근 졸업한 연사입니다.
마지막으로 Liberty님, TPX Impact의 콘텐츠 디자인 총괄입니다.

진행 순서는 Clara → Yini → (짧은 스크린 브레이크) → 수영 → Liberty → 마무리입니다. 그리고 많은 분들이 네트워킹을 원하셔서, 오늘은 마친 뒤 브레이크아웃 룸을 운영해 보겠습니다. 발표가 모두 끝난 뒤 남아 계실 분들은 몇 개의 소그룹 공간으로 나뉘어 대화를 이어가실 수 있습니다. 대화를 시작할 수 있도록 몇 가지 대화 주제 프롬프트도 준비했습니다. 채팅창에 이름과 역할을 남겨 서로 인사를 나누어 주셔도 좋습니다. 연결을 넓히는 데 도움이 됩니다. 조만간 오프라인에서도 다시 뵙기를 바랍니다.
이제 Best가 Clara를 소개하고, 이어서 Clara가 화면을 공유하겠습니다.

Best:
소개를 맡겠습니다. Clara는 프리랜스 디자이너이자 리서처입니다. 오늘은 공정성(equity)과 정의(justice)를 주제로, AI의 유행적 사용 맥락 속에서 이 두 주제가 어떻게 변화하고 있는지를 이야기해 주실 것입니다. 무대는 Clara에게 드립니다.

Clara:
Best와 Charlie의 소개에 감사드립니다. 제 목소리가 잘 들리고, 슬라이드가 잘 보이십니까? 좋습니다. 채팅도 함께 볼 수 있도록 화면을 조금 조정하겠습니다. 오늘 채팅을 적극 활용할 예정입니다.
안녕하세요. 여러분을 직접 보고, 익숙한 얼굴과 새로운 얼굴을 함께 보게 되어 매우 반갑습니다. 제 소개는 여러 번 나왔지만, 저는 Clara입니다. 내 대명사는 she/her입니다. 시각적 설명을 드리면, 저는 40대의 혼혈 시스 여성입니다. 동남아시아계처럼 보이기도 하고 백인처럼 보이기도 하는데, 실제로 그렇습니다. 짧은 갈색 머리이고, 브라이턴이 추워서 오늘은 검은색 포근한 스웨터를 입었습니다. 제 뒤에는 식물, 다채로운 폼폼 장식, 예쁜 케피예(keffiyeh), 포스터가 보입니다.
저는 디자이너이자 리서처이고, 호주·영국 이중국적자입니다. 이주자이자 엄마이고, 시간제 노동자이며, 최근 어머니를 여읜 애도하는 딸이기도 합니다. 여러분을 뵙게 되어 기쁩니다.

아주 짧게, 지금 우리가 세계 곳곳에서 끔찍한 일들을 목격하고 있음을 명시적으로 인정하고 싶습니다. 그 안에는 가자지구의 집단학살도 포함됩니다. 오늘 이 주제 자체를 더 다루지는 않겠지만, 세계에서 벌어지는 일을 외면한 채 일상을 이어갈 수는 없다고 생각합니다. 화면에 보이는 사진은 카리메 아부드(Karimeh Abbud)가 나크바 이전의 가자를 촬영한 아름다운 사진입니다. 그녀는 중동 최초의 여성 사진가 중 한 명이었습니다. 정말 아름답지 않습니까? 그곳은 정말 아름다웠습니다.

이제 제가 만든 ‘공정성과 정의를 위한 12가지 질문’을 빠르게 훑어보시기를 권합니다. 오늘 모든 질문을 하나하나 다룰 시간은 없습니다. 잠시 뒤 여러분께 다운로드해 보시라고 부탁드릴 텐데, 우리가 전부 다 다룰 수 없기 때문에 여러분이 토론하고 싶은 질문을 골라 주시면 좋겠습니다.

AI를 설계하거나 활용할 때 스스로 던져야 할 12가지 질문

  1. 누가 가장 큰 혜택을 얻는가?
    – 이 기술로 인해 이익을 보는 개인·집단은 누구인가?
  2. 누가 피해를 입는가?
    – 이로 인해 배제되거나 불이익을 받을 사람은 누구인가?
  3. 어떤 편향이 강화될 것인가?
    – 기존의 사회적, 문화적, 데이터 기반 편향이 어떻게 증폭될 수 있는가?
  4. 이 AI가 어떤 구조적 불평등을 가릴 수 있는가?
    – 기술이 불평등을 드러내기보다 감추거나 정당화하고 있지 않은가?
  5. 환경적 영향은 무엇인가?
    – 학습, 운영, 유지에 필요한 에너지와 자원의 부담은 어느 정도인가?
  6. 누구의 작업이 사용되고 있는가?
    – 데이터와 지식, 창작물은 누구의 것인가? 그 사용은 정당한가?
  7. 새로운 아이디어의 부재는 어떤 결과를 낳는가?
    – AI가 창의성을 억제하거나 다양성을 제한하지는 않는가?
  8. 누가 권력을 갖게 되는가?
    – 시스템의 통제권과 의사결정 권한은 누구에게 있는가?
  9. 이 기술은 어떤 정치적 함의를 드러내는가?
    – 특정 가치관, 이념, 이해관계를 재현하거나 강화하지는 않는가?
  10. 이 기술은 주체성을 제한하는가, 아니면 확장하는가?
    – 사용자의 자율성과 소유권을 높이는가, 아니면 줄이는가?
  11. 책임은 누구에게 있는가?
    – 오류나 피해가 발생했을 때 책임은 어디에 귀속되는가?
  12. 데이터는 어떻게 사용·공유·보호되고 있는가?
    – 수집된 데이터의 활용, 관리, 보안은 투명하고 안전하게 이루어지고 있는가?

이 질문들은 팀이 AI 사용의 결과를 깊이 생각하고 논의하는 데 도움이 되도록 만들었습니다. 솔직히, 많은 사람들이 AI가 우리 제품·서비스·사용자·우리 자신·우리 사회에 무엇을 하는지 충분히 생각하지 않는 모습이 매우 답답했습니다. 저는 공정성과 정의에 관한 대화를 항상 하기를 권합니다. 이런 대화는 연습할수록 더 쉬워집니다.

AI가 얼마나 문제적일 수 있는지는 굳이 길게 말할 필요가 없을 것 같습니다만, 몇 가지만 짚겠습니다. 환경적 영향이 큽니다. 편향·인종주의·각종 억압과 차별을 재생산할 수 있습니다. 창작물을 동의 없이 수집·전용하고, 사람들의 일을 대체합니다. 새로운 아이디어를 만들어내지 않습니다. AI는 중립적이지 않습니다. 특정한 정치성이 내재해 있으며, 어떤 정치는 더 드러나고 다른 정치는 지워집니다. 우리는 지금보다 훨씬 조심스럽고 성찰적이어야 합니다.

핵심을 한 문장으로 말하면, AI는 사람마다 다른 결과를 낳습니다. 어떤 사람은 더 이익을 보고, 어떤 사람은 더 큰 피해를 봅니다.

이 지점에서 평등(equality)과 형평(equity)의 차이를 간단히 짚겠습니다. 제가 좋아하는 정의입니다. 평등은 모든 개인이나 집단에 같은 자원과 기회를 제공하는 것입니다. 형평은 각자가 처한 다른 상황을 인정하고, 동일한 결과에 도달하도록 필요한 만큼의 자원과 기회를 배분하는 것입니다. 이 정의는 밀먼 공중보건대학원에서 가져왔습니다. 여기에 자주 쓰이는 훌륭한 삽화가 있습니다.

왼쪽의 평등 그림에서는 세 사람이 펜스를 넘어 운동 경기를 보려고 하는데, 똑같이 상자 하나씩을 받았습니다. 하지만 땅의 높이도, 펜스의 높이도 달라 한 사람은 겨우 보거나 아예 보지 못합니다. 오른쪽의 형평 그림에서는 각 사람이 필요한 만큼 다른 개수의 상자를 받아 모두 경기를 볼 수 있습니다. 그리고 세 번째 그림은 정의(justice)입니다. 사람들이 문제의 근원인 펜스 자체를 해체하고 있습니다. 저는 우리가 디자이너·리서처·공공 및 다양한 서비스·제품을 만드는 사람으로서 바로 이 지점, 즉 문제를 설계 단계에서부터 해체하는 일에 힘을 쏟아야 한다고 생각합니다.
이 그림의 상징도 짚고 싶습니다. 울퉁불퉁한 땅역사적 억압을, 기울어진 펜스현재 진행 중인 억압의 체계를 나타냅니다. 사람들은 서로 다른 출발선에서 출발합니다. 어떤 이들은 더 높은 펜스, 더 두꺼운 장벽을 마주합니다.

제 생각은 많은 곳에서 영향을 받았습니다. 특히 사샤 콘스탄차-쇼크의 『Design Justice』가 그렇습니다.  인터넷에서 무료로 읽을 수 있으며, 인쇄본도 살 수 있습니다. 정말 훌륭한 책입니다. 또 시카고의 Everyday 팀이 설명한 Consequence Scanning 실천에서도 많은 영감을 얻었습니다. 제가 만든 12가지 질문도 이 방법처럼 팀·이해관계자 워크숍에서 전부 사용하거나, 회의·기획·레트로에서 몇 개만 골라 토론하거나, AI 도입 초기에, 혹은 제품·서비스 개발 라이프사이클 전반에 걸쳐 정기적으로 점검하는 방식으로 쓰면 좋습니다.
아직 이 질문들을 실제 팀이나 특정 서비스에 직접 적용해 보지는 못했습니다. 만약 시도해 보고 싶은 팀이나 서비스가 있다면 꼭 연락해 주시기 바랍니다. 매우 관심이 많습니다. 슬라이드에는 다운로드 링크도 있습니다. 꼭 받아 보시기 바랍니다.

이제 곧 여러분이 어떤 질문을 논의할지 함께 고르겠습니다. 슬라이도(Slido)를 사용할 것입니다. 

좋습니다. 이제 충분히 다운로드하셨을 것이라고 생각합니다.
이제 이 질문들이 만들어진 배경을 간단히 설명하겠습니다.
이 질문들은 몇 달 전에 작성했습니다.
링크드인과 여러 미디어에서 사람들이 AI를 비판 없이 사용하는 모습을 보고 화가 났던 것이 계기였습니다.
첫 번째 초안을 공개했을 때 여러 사람들에게 좋은 피드백을 받았습니다.
그래서 이름을 조금 바꿨습니다. 처음에는 AI Prompts라고 불렀지만, ‘프롬프트’라는 단어가 생성형 AI에서 매우 구체적인 의미를 가지게 되면서 AI Questions로 바꿨습니다.
질문 수도 10개에서 12개로 늘렸고, 아이디어를 함께 다듬는 데 도움을 준 사람들에게도 크레딧을 추가했습니다.

이제 슬라이도 링크로 넘어가겠습니다. 혹시 제가 얼마나 시간이 남았는지 알려주실 수 있을까요?

운영진: 괜찮습니다. 천천히 진행하셔도 됩니다.

좋습니다. 저는 멈추지 않으면 시간을 전부 쓸지도 모릅니다. 이 링크로 들어가서 가장 이야기하고 싶은 질문을 선택해 주시기 바랍니다. 하나 이상 선택하셔도 됩니다. 이제 결과가 들어오기 시작했습니다. 화면을 함께 보겠습니다.

슬라이도는 정말 재미있습니다. 작은 점들이 움직이는 것을 보는 게 즐겁습니다.

루이즈가 채팅창에 아주 좋은 질문을 남겼습니다.
루이즈, 만약 슬라이도에서 8번 질문에 투표하셨다면 꼭 함께 이야기하고 싶습니다.
하지만 오늘은 세 개나 네 개의 질문만 다룰 수 있을 것 같습니다.

확실히 말씀드릴 수 있는 것은,
디자이너로서 우리는 분명히 힘을 가지고 있다는 점입니다.
그 힘의 크기는 맥락에 따라 다르지만, 우리는 분명히 영향력을 행사할 수 있는 위치에 있습니다.

현재 투표 결과, 3번 질문의 표가 가장 많습니다. 좋습니다. 그러면 3번 질문부터 시작하겠습니다.
다른 질문들도 나중에 확인하겠습니다.

질문 3: 어떤 편향이 증폭될 것인가?

이 질문을 던질 때 제가 생각한 것은 다음과 같습니다.
AI가 학습된 데이터에는 이미 편향, 선입견, 세계관이 내재되어 있습니다.
그 편향은 AI가 생성하는 결과물에 그대로 반영되고,
우리가 AI를 활용해 만든 제품과 서비스 속에도 재현됩니다.
그 결과는 실제 사용자들의 삶 속에 구체적으로 나타납니다.
그렇다면 각 맥락에서 어떤 편향이 증폭될 것인가?
그 양상은 시간이 지나면서 어떻게 변할 것인가?
우리는 그것을 어떻게 감지하고 대응할 것인가?
이것이 제가 던지고 싶은 핵심 질문입니다.

채팅창에 여러분의 생각을 남겨 주시기 바랍니다.
직접 말씀하고 싶으신 분은 손을 들어 주시면 시간을 드리겠습니다.

자, 어떤 편향이 증폭될까요? 만약 여러분의 팀이 AI를 사용하고 있다면, 이 질문에 어떤 반응을 보일까요?
혹은 어떤 반박이나 저항이 나올까요?

좋습니다. 채팅창에 흥미로운 답변이 올라오고 있습니다.
AI의 제안을 지나치게 신뢰하고 자신의 판단을 무시하는 경향이 있다는 의견이 있습니다. 이는 실제로 학계에서도 학생들이 자신의 글 대신 AI가 생성한 글을 제출하고, 오히려 그것을 더 신뢰하는 현상으로 나타나고 있습니다.

또 다른 의견으로는 인종적 편향이 있습니다.
맞습니다. AI가 생성하는 이미지와 텍스트에는 백인 우월주의적 편향이 매우 뚜렷하게 나타납니다.
AI가 학습한 텍스트의 대부분은 과거의 백인, 시스젠더, 이성애자 남성, 그것도 영어권 서구 사회의 남성이 쓴 것입니다.
그들이 지닌 세계관—가부장제, 식민주의, 자본주의—가 데이터 속에 녹아 있고, 결국 그것이 AI의 기반이 됩니다.

그리고 데이터를 포함하는 순간, AI는 특정 집단 전체를 일반화합니다. 이 일반화는 매우 위험합니다.
AI에는 성별, 인종, 장애에 대한 편향이 이미 깊게 새겨져 있습니다. 데이터가 포함되는 순간, AI는 특정 집단 전체를 일반화해 버릴 수 있습니다.
이러한 일반화가 위험한 이유는, 개별성과 다양성이 지워지기 때문입니다.
예를 들어, 여성·소수 인종·장애인 등이 가진 다양한 경험과 맥락이 하나의 고정된 판단 틀 안에 갇히는 식입니다.
AI는 누락된 집단에 대해서는 ‘없는 것처럼’ 행동할 위험도 있습니다.
이처럼 불완전한 데이터와 편향된 학습 방식을 통해 AI는 기존 권력 구조를 재생산하고 강화할 수 있습니다.
따라서 우리는 AI를 설계하고 운영할 때 이러한 편향을 의도적으로 감지하고 완화할 전략을 세워야만 합니다.

음… Henrietta, 사진 데이터베이스를 구축하는 사례에 대해 말씀해 주시겠습니까?
많은 곳에서 흔히 겪는 문제라고 생각합니다. 갑자기 지명해서 죄송합니다.

Henrietta:
괜찮습니다. 문제없습니다. 저희는 현재 피부 병변 사진을 활용한 AI 판독을 검토하고 있습니다. 피부암은 조기 개입과 예방이 무엇보다 중요하기 때문에, 의심되는 점‧모반 등에 대한 의뢰가 매우 많이 발생합니다. 여러 임상시험에서 AI가 암 가능성을 비교적 정확히 감지해, 우선순위를 정하고 암 가능성이 높은 환자를 먼저 전문의에게 연결하는 데 도움을 줄 수 있음이 입증되었습니다.
하지만 현 단계의 문제는, 기존 AI 모델이 대부분 ‘백인 피부’ 사진으로 학습되었다는 점입니다. 그래서 저희는 다양한 피부 톤과 특성을 포괄하는 새로운 사진 데이터베이스를 구축하려고 합니다. 그래야 실제 활용 시 집단 간 불균형한 영향이 발생하지 않습니다. 흥미로운 점은, 초기에 테스트가 기존 사진(편향된 데이터)로만 진행되었다는 것입니다. 처음부터 고려된 사항이 아니라, 현실 적용과 확장을 논의하는 시점에서야 강하게 요구되어 반영되었다는 것이지요. 제대로 활용하려면, 사진 데이터 구성이 반드시 바뀌어야 합니다.

Clara:
전적으로 동의합니다. 매우 흥미롭고, 동시에 우리가 계속 싸워서 개선해야 할 ‘매우 흔한’ 문제라고 생각합니다. 공유해 주셔서 감사합니다.
채팅에도 훌륭한 의견이 많이 올라오고 있습니다. 모두 다 소개하지는 못하겠지만, Rashelle의 코멘트 하나를 짚고 넘어가겠습니다. 서로 다른 문화권을 하나의 ‘범주’로 뭉뚱그리는 문제입니다. 예컨대 범아랍(pan-Arab)처럼 서로 구별되는 이미지·사상·음식 등을 평탄화해버리는 경향이 그렇습니다. 매우 중요한 지적입니다.

이제 다음으로 득표가 높았던 질문으로 넘어가겠습니다.

질문 4. “이 AI가 어떤 구조적 불평등을 가릴 것인가?”

방금 논의한 주제와 닿아 있지만, 각도가 다릅니다. AI는 학습 구조에 내재한 편향과 차별을 증폭시킬 뿐 아니라, 그것을 보이지 않게 ‘가리고’ 정당화할 수도 있습니다. 마치 다른 제품·서비스의 외피를 씌워 ‘세탁’하듯이요.
따라서 무엇이 가려지는지, 우리는 그 편향을 추적·질문할 수 없게 되는 지점이 어디인지, 그리고 그로 인해 누가 보호되고 누가 피해를 보는지 함께 이야기해 봅시다.

또한 운영진께 부탁드립니다. 오늘 채팅에 매우 유익한 의견이 많아서, 가능하면 대화 기록을 저장해 주시기 바랍니다.

첫 의견으로 Blaze가 흥미로운 포인트를 주셨습니다. AI는 본성상 주류 권력 구조와 그 언어에 기대어 학습된 데이터셋을 선호합니다. 그 결과 기존의 권력과 담론을 가리고 정당화하며, 우리가 만드는 산출물 속에 깊이 각인시킵니다. 예컨대 영어 중심주의(English-speaking/English primacy)가 그러합니다.

또한 AI가 그럴듯한 이야기와 ‘출처 있는 듯한 서술’을 만들어 사람들로 하여금 내용의 정당성을 실제보다 더 높게 느끼게 하는 효과가 있다는 지적도 있었습니다. 실제보다 더 믿게 만드는 현상은 매우 중요합니다.

그리고 인터넷 접근이 어려운 사람들, 데이터셋에 포착되지 않는 집단(특히 글로벌 사우스)의 의견 공백가려지는 문제도 큽니다. 그 부재 자체가 ‘없음’으로 정당화되는 것이지요.

Tim은 또 다른 관점을 제시했습니다. 간단해 보이는 AI 채팅 인터페이스복잡한 의사결정 과정의 불투명성을 가릴 수 있다는 것입니다. 사용자는 친근한 챗봇과 대화한다고 느끼지만, 실제로는 거대한 행정·알고리즘 기계가 뒤에서 작동하고 있을 수 있습니다. 매우 중요한 지적입니다.

좋습니다. 훌륭한 대화였습니다. 마지막으로 한 질문만 더 다루고 마무리하겠습니다.

질문 9: 이 AI는 어떤 ‘정치’를 구현할 것인가?

우리는 흔히 기술·AI는 중립적이고, 과학은 중립적이라고 가정합니다. 그러나 그 어떤 것도 중립적이지 않습니다. 기술은 중립이 아니며, AI는 탈정치적이지 않습니다. 따라서 우리가 사용하는 AI가 어떤 정치성을 띠는지, 그리고 시간이 흐르며 그것이 어떻게 변하는지를 이야기해야 합니다. 이미 AI가 내놓는 결과와 세계에 미치는 영향이 변해가고 있음을 보고 있습니다.
이 질문을 팀에 던졌을 때 어떤 반응과 반박이 나올까요? 정부 조직만의 문제는 아니지만, 특히 공공 영역에서 어떻게 받아들일지 궁금합니다.

AI 기술은 감시를 원합니다. 데이터를 수집하고 사람과 그 정보를 활용하려고 합니다. 우리가 만드는 서비스가 의도치 않게 그 목적을 더 밀어주는 도구가 될 수도 있습니다.

생성·변형된 이미지특정 정치적 관점전파하는 데 쓰이는 사례가 많습니다. 극우 진영, 이스라엘 정부의 활용 등 다양한 맥락에서 관찰됩니다.

맞습니다. 사실 이 질문들은 서로 강하게 얽혀 있어서, 개별적으로 떼어 생각하기가 쉽지 않습니다. 그래서 팀과 함께 사용할 때는 다섯 개 정도를 골라 깊이 토론하길 권합니다. 특히 정치성이나 피해와 같은 주제는 사람들이 불편함을 느끼기 쉽습니다. 그렇기 때문에 더 자주 연습하고, 계속 대화하는 것이 중요합니다. 그럴수록 질문들 사이의 미묘한 차이와 뉘앙스가 더 잘 보이기 시작합니다.

오늘 채팅 토론 정말 훌륭했습니다. 시간이 훌쩍 지났네요. 마무리하겠습니다.
12가지 질문을 여러분의 팀이나 조직에서 활용해 보고 싶으시다면, 저와 꼭 이야기해 주시기 바랍니다. 평소 쓰는 채널로 연락하시면 됩니다. 감사합니다.
다음 달에 트레이닝 코스 몇 개가 예정되어 있고, 아마 프리랜서로 일하는 기간이 길지는 않을 것 같습니다. 모두 고맙습니다.

Charlie:
정말 훌륭했습니다, Clara. 박수가 쏟아지고 있습니다. 오늘 내용은 채팅 로그를 다운로드해 공유하겠습니다.
이제 화면을 공유하고 다음 연사로 넘어가겠습니다. 실시간으로 Slido를 보며 소규모 리서치를 해보는 재미가 쏠쏠했습니다.
개인적으로도 무척 즐거웠습니다.

Ling:
마무리하자면, Clara의 생각과 질문 리스트대화를 여는 훌륭한 프롬프트입니다. 이따 네트워킹 브레이크아웃에 남으시는 분들과 더 심화 토론을 하면 정말 좋겠습니다. 발표와 의견 공유에 감사드립니다, Clara. 다가오는 트레이닝 코스도 기대하겠습니다.
그럼 다음 연사 Yini를 소개하겠습니다. Yini는 임페리얼 칼리지 헬스케어 트러스트의 시니어 서비스디자이너입니다.
오늘은 AI를 활용해 더 충실하고 증거 기반의 ‘행동적 퍼소나(Behavioral Personas)’를 만드는 방법을 이야기해 주시겠습니다. 이제 Yini께 마이크를 넘기겠습니다.

Yini:
안녕하세요, Yini입니다. 오늘은 헬스케어 영역에서 퍼소나를 새롭게 바라보는 방법, 즉 행동과학·디자인·AI를 결합한 ‘행동적 퍼소나’ 구축에 대해 공유하겠습니다.
간단히 소개드리면, 저는 현재 Imperial College NHS Trust에서 시니어 서비스디자이너로 일하고 있습니다. 과거에는 Behavioral Insights Team에서 행동과학 프로젝트에 디자인적 사고와 방법론을 접목했습니다. LinkedIn이나 이메일로 편하게 연결해 주시기 바랍니다.
시각적 설명을 드리면, 저는 동아시아계 여성이고, 줄무늬 셔츠를 입었으며 짙은 머리입니다. 지금은 심플한 침실에 있습니다.
들어가기에 앞서 한 가지 말씀드립니다. 보안과 기밀 때문에 구체적인 산출물은 공유하지 못합니다. 대신 어디서나 적용 가능한 방법과 배움을 중심으로 말씀드리겠습니다.
왜 헬스케어에서 행동적 퍼소나가 필요할까요? 전통적 퍼소나는 인구통계나 추정에 과도하게 기대어, 실제 행동의 동인을 놓치기 쉽습니다. 헬스케어에서는 질환·서비스·시스템의 복잡성 때문에 이 한계가 더 치명적입니다. 따라서 우리는 근거 기반이고 행동 관점에 뿌리를 둔, 그리고 편향에 민감한 퍼소나가 필요합니다.

Yini:
헬스케어에서는 이 문제가 특히 중요합니다. 사람들의 행동은 질환의 복잡성, 서비스의 설계, 더 넓은 보건의료 시스템에 의해 영향을 받기 때문입니다. 따라서 근거 기반이고, 행동 과학에 뿌리를 두며, 편향에 민감한 퍼소나가 필요합니다.

그렇다면 행동적 퍼소나는 전통적 퍼소나와 무엇이 다릅니까? 저는 만드는 과정내용 두 측면으로 구분해 설명합니다.

  • 과정에서는 더 구조화된 증거를 바탕으로 하며, AI로 정제할 수 있고, 시스템 매핑사용자 테스트 같은 다른 디자인 방법을 함께 활용합니다. 각 요소는 뒤 슬라이드에서 더 자세히 다루겠습니다.
  • 내용에서는 ‘예약에 나타나기’, ‘처방 약을 복용하기’처럼 구체적 행동에 초점을 맞춥니다. 또한 그 행동을 실제로 바꿀 수 있는 요인—접근성 개선, 신뢰 문제 해결, 사회적 지지 활용—을 제안합니다. 둘째, 동기·장벽, 가족·친구·커뮤니티의 역할 같은 행동·사회적 요인을 더 강조합니다. 셋째, 인지 편향이나 사회 규범처럼 의사결정을 좌우하는 행동과학 개념을 토대로 구성합니다. 즉 “이 사람이 누구인가(인구통계)”가 아니라 “왜 이렇게 행동하는가”, “헬스케어에 더 잘 참여하도록 무엇이 도움이 되는가”를 묻습니다.

행동적 퍼소나는 행동과학·AI·디자인 방법 세 가지를 블렌딩해 만듭니다. 행동과학은 증거를, 디자인은 실용성과 사용성을, AI는 정보 처리 속도산출물 정제를 돕습니다. 다만 세심한 가이드가 필수라는 점은 뒤에서 다시 강조하겠습니다.

이제 행동적 퍼소나를 만드는 4가지 팁을 공유하겠습니다.
① 언제나 ‘증거’에서 시작합니다. 관심 있는 행동을 대상으로 체계적 문헌/데이터 리뷰를 수행해 장벽과 촉진 요인, 서비스/질환 간 변이, 인구집단별 차이를 살핍니다. 증거 기반이 단단할수록 퍼소나는 더 의미 있어집니다. 시간이 허락한다면 인터뷰·현장 관찰 같은 사용자 리서치 인사이트도 포함하고, 여정과 이해관계자 역할을 함께 매핑합니다.
NotebookLM 같은 AI 도구는 방대한 자료를 일일이 넘기지 않고 패턴·차이·공백을 발견하는 데 유용합니다. 문헌 목록 스프레드시트를 업로드하면 발행연도, 초록 등 기본 메타데이터를 추출해 줍니다. 또한 가로 질의로 폭넓은 질문에 답을 모으거나, 출처 간 비교, 개별 문헌에 대한 심화 질의도 가능합니다.

② ‘행동을 맥락에 꽂아 넣기’: 행동 시스템 매핑을 합니다. 퍼소나 제작의 필수 단계는 아니지만, 중간 산출물이자 최종 아웃풋으로 매우 유용합니다. 헬스케어 참여는 시스템과 관계망의 산물이기 때문입니다.
행동 시스템 매핑은 특정 상황/시스템 안에서 행동에 영향을 미치는 복합 관계를 탐색하는 방법입니다. 이를 통해 헬스케어 서비스 참여의 주요 영향 요인요인 간 관계를 파악할 수 있고, 문헌 리뷰 결과를 전문가·사용자와 함께 시각적으로 검증하는 용도로도 좋습니다. 퍼소나 개발 맥락에서는 각 퍼소나에 공통으로 평가할 테마를 도출하는 데 도움이 됩니다.
제가 만든 지도는 공유할 수 없지만, UCL의 성적 부정행위 예방 예시를 보면 행동과 영향 요인이 연결선으로 이어지며, 양/음의 상관을 표시할 수 있습니다. 같은 프로젝트의 상위 맵은 테마들이 고등교육 일반 맥락에서 왔는지, 기관 내부에서 비롯됐는지로 나누어 보여줍니다.
제 프로젝트의 결과를 대신해 단순화한 상위 맵을 소개하자면, 특정 헬스케어 서비스의 이용을 설명하는 데 서비스/질환 지식 수준(우려를 높이거나 낮힘), 접근성과 물리적/절차적 장벽, 보건시스템에 대한 신뢰(접근성 문제는 신뢰를 떨어뜨릴 수 있음), 그리고 가족·지인의 사회적 영향, 언어·문해력의 커뮤니케이션 장벽이 핵심 축으로 드러났습니다.

③ AI는 ‘현명하게’ 사용해 퍼소나를 만들고 다듬습니다. “AI야 퍼소나 만들어줘”가 아니라, 구조화된 입력으로 가이딩해야 합니다. 예: 행동과학 개념, 헬스케어 인사이트, 서비스디자인 원칙을 맥락으로 제공하고, 무엇보다 문헌 리뷰·사용자 리서치명확한 섹션 구조를 연결합니다. 앞서 매핑한 핵심 행동 테마퍼소나 프레임워크에 녹여 넣을 수 있습니다. AI는 연구 인사이트를 토대로 요인들을 퍼소나 간에 평가·정리하는 데 도움을 줍니다. 다만 결과는 사람이 검토·보정해야 합니다. 프롬프트를 반복 개선고정관념을 걷어내고, 편향을 줄이며, 헬스케어의 현실 복잡성을 반영하도록 합니다. 목표는 정확하면서도 실무 팀이 바로 쓸 수 있는 퍼소나입니다.

④ 환자와 전문가 ‘함께’ 테스트합니다. 디자인은 사람에게 울림이 있어야 의미가 있습니다. 환자와 실무자를 함께 모은 워크숍은 특히 강력합니다. 환자는 산출물이 현실 경험을 반영하는지 검증하고, 전문가들은 현장에서 실행 가능한지 평가합니다. 이 자리에서 상호 이해가 생깁니다. 예컨대 임상의는 환자 장벽을 새롭게 깨닫고, 환자는 현장 제약을 이해합니다. 이 관점들이 만날 때, 퍼소나는 벽에 붙여두는 정적 산출물을 넘어 더 나은 서비스 의사결정을 이끄는 공동의 기준점이 됩니다.

정리하겠습니다.

  • 피해야 할 함정: AI 출력을 최종본처럼 다루지 않습니다. 사람을 인구통계 라벨로 환원하지 않습니다. 행동·사회 맥락을 무시하지 않습니다.
  • 권장하는 실천: 증거로 시작하고, 시스템 매핑으로 큰 그림을 봅니다. 가능하면 행동과학자와 협업하고, 그렇지 않다면 행동과학의 언어를 익힙니다. AI는 신중하게, 결코 디자인 사고의 대체재로 쓰지 않습니다. 무엇보다 초기부터 환자와 전문가를 참여시킵니다.
    이렇게 하면 퍼소나는 행동을 바꾸는 도구가 되어, 헬스케어 팀이 사람들이 실제로 참여할 수 있는 서비스를 설계하도록 돕습니다. 감사합니다.

질문자:
훌륭한 발표였습니다, Yini. 몇 가지 질문이 있습니다. 방금은 방법론 중심으로 설명하셨는데, 실제 실무에서 사용한 AI 도구는 무엇입니까? 에이전트나 다른 도구를 어떻게 활용했는지 궁금합니다.

Yini:
저는 ChatGPT를 사용했고, 행동적 퍼소나 생성을 전담하는 에이전트를 구성해 활용했습니다. 말씀드린 대로 행동과학 문헌, 해당 헬스케어 의사결정 관련 문헌, UX/서비스디자인 원칙을 에이전트의 지식 베이스로 입력했습니다. 그다음 프로젝트별 문헌 리뷰 결과를 투입해 맥락화하고, 이 기반 위에서 퍼소나 섹션 구조에 맞춰 산출물을 생성·정제했습니다. 답이 되었으면 합니다.

Charlie:
감사합니다. 행동 시스템 매핑을 어떻게 구축했는지 과정도 조금 더 듣고 싶습니다.

Yini:
네, 맞아요. 저희는 문헌 리뷰 결과에서 인사이트를 추출한 뒤, 그 안에 언급된 행동들과 그에 영향을 미치는 요인들을 모두 하나의 캔버스에 정리했습니다. 그리고 각 행동과 요인 사이의 연결 관계를 시각적으로 표시하고, 유사한 항목들을 주제(테마)별로 클러스터링했습니다.
이 과정은 클러스터 매핑(cluster mapping)이나 어피니티 매핑(affinity mapping) 같은 사용자 리서처들이 자주 사용하는 기법과 유사합니다. 그렇게 그룹화된 테마를 바탕으로 행동 시스템 맵을 완성했습니다.

사회자:
좋습니다. 또 흥미로운 질문이 들어왔습니다. AI가 생성한 행동적 퍼소나와 전통적 퍼소나의 차이, 그리고 그것이 실제 업무에 어떤 영향을 주었는지 궁금하다고 합니다.

Yini:
큰 차이 중 하나는, 약간 게으르게 들릴 수도 있지만, AI가 제 사고를 훨씬 구조화해 준다는 점입니다. 저희가 관련 인사이트를 다수 입력했기 때문에, AI가 기초 틀을 잘 잡아주고 방향성을 정리하는 데 큰 도움이 되었습니다.
물론 AI에는 환각(hallucination)이나 일반화(generalization)의 문제가 있습니다. 그래서 인간의 판단이 반드시 개입되어야 합니다. 저희는 편향을 줄이는 방향으로 지속적으로 수정하며, AI가 만들어낸 결과를 그대로 사용하지 않고 비판적으로 재구성했습니다.

사회자:
좋아요, 훌륭합니다. 이 주제에 대한 나머지 질문은 키노트 이후 네트워킹 세션에서 이어가도록 하겠습니다.
그럼 지금까지의 내용을 간단히 정리해 보겠습니다. ClaraYini가 공유해 준 발표를 통해, 서비스디자이너가 AI 시대에 어떤 역할을 가져야 하는지를 함께 고민할 수 있었던 것 같습니다.

제가 팀과도 자주 나누는 이야기인데요, 저 개인적으로는 AI를 단순한 도구(tool)로만 보지 말고, 하나의 독립된 이해관계자(stakeholder)로 바라봐야 한다고 생각합니다.
이는 방금 Yini가 행동적 퍼소나를 만들 때 ‘AI 에이전트 모델’을 구축한 사례와도 일맥상통합니다.
이런 관점이야말로, AI를 설계 파트너로 대우하는 새로운 접근이라고 봅니다. 그렇게 해야 AI를 통해 포용성, 문해력, 접근성 같은 이슈를 더 잘 다룰 수 있습니다.
이는 바로 Clara가 앞서 이야기했던 AI의 형평성, 문화적 편향, 사회적 불평등 문제와도 연결됩니다.

이제 다음 발표자를 소개하겠습니다.
이번에는 오랫동안 저희 행사에 자원봉사로 참여해 온 수영의 차례입니다. 이번에는 발표자로서 자신의 경험을 공유해 주십니다.

수영서비스디자이너이자 디자인 리서처, 그리고 런던예술대학교 RCA(왕립예술학교)의 신임 졸업생입니다. 대학 생활과 학업 프로젝트를 중심으로 이야기를 들려주겠습니다.


수영:
안녕하세요, 저는 수영입니다. RCA(왕립예술학교)에서 최근 졸업했습니다.
저는 그녀(she/her) 대명사를 사용하고, 30세의 동아시아 여성입니다. 머리는 진한 갈색으로 묶은 단발, 둥근 얼굴, 안경과 회색 티셔츠를 착용하고 있으며, 뒤에는 초록색 침구가 깔린 방에서 발표 중입니다. 초록은 제가 가장 좋아하는 색입니다.

저는 스스로를 ‘디자인 만능인(Design Handy Person)’이라고 소개합니다. 망치를 들고 다니지는 않지만, 도구 상자를 항상 들고 다니는 디자이너입니다. 오늘은 그 상자 속의 도구들을 어떻게 써왔는지 제 디자인 여정과 함께 소개하겠습니다.

학부에서는 자동차 디자인을 전공했습니다. 그러나 저는 차종보다 사용자 세그먼트에 더 관심이 많았습니다.
그 호기심 덕분에 고객 서비스, 운영, UX 리서치, 비즈니스까지 탐색했고, 결국 사람과 시스템, 서비스를 연결하는 서비스디자인으로 방향을 정했습니다.

RCA에서는 여러 훌륭한 기회를 얻었습니다. 그중 일부 프로젝트를 소개하겠습니다.
첫 프로젝트는 런던교통국(TfL) 및 지역 자전거 단체와의 협업이었습니다. 목표는 여성의 자전거 이용 확대였습니다. 문제는 인프라가 아니라 ‘자신감의 부족’이었습니다.
저희는 주저하는 여성 라이더와 숙련된 라이더를 연결하는 버디 매칭 서비스를 설계했습니다. 실제 주행 세션에도 참여하며 워크숍을 진행했고, TfL은 저희의 분석과 워크숍이 실제 사용자 니즈에 매우 부합했다고 평가했습니다.

다음으로 MHA 이스트런던과 협업해 노년층의 목소리를 강화하고 세대 간 단절을 해소하는 프로젝트를 진행했습니다.
한 달간 드로잉·스토리텔링 워크숍을 운영하고 커뮤니티 잡지를 공동 제작했습니다. 세대 간 대화가 촉진되었고, 전년 대비 3배의 기금을 확보했습니다.
무엇보다 참여자들이 ‘존중받고 있다’고 느꼈다는 점이 가장 큰 성과였습니다. 완성된 매체는 지자체 정책 제안 자료로 활용되었습니다.

또한 저는 NHS의 소셜 처방(Social Prescribing) 관련 프로젝트를 주도했습니다.
문제는 비의료적 돌봄이 의료적 틀로 제공되고 있다는 점, 그리고 현장 실무자의 존재가 시스템에서 보이지 않는다는 점이었습니다.
그래서 전략과 서비스 간 피드백 루프를 형성하는 도구를 만들고, 정책 제안 방향을 함께 설계했습니다.
이 결과물은 여러 지방의회에 공유되었고, 최근 Helen Hamlyn Design Award 최종 후보에도 올랐습니다.

이 모든 프로젝트에서 저는 단순히 방법론을 따르지 않았습니다.
진단하고, 수정하고, 상황에 맞게 작동하게 만드는 일을 했습니다.
때로는 저니맵, 때로는 드로잉 툴, 때로는 보드게임까지 사용했습니다. 그래서 스스로를 ‘디자인 만능인’이라 부릅니다.
저는 도구를 가지고 다니지만, 더 중요한 건 언제 어떤 도구를 써야 하는지를 아는 것입니다.
때로는 새로운 도구를 직접 발명하기도 합니다.

AI가 디자인 일을 대체할 것이라는 말이 많지만, 저는 걱정하지 않습니다.
AI는 ‘사람의 분위기를 읽고 변화를 이끄는 사람’을 대체할 수 없습니다.
그래서 저는 걱정 대신, AI를 내 도구 상자 속의 새로운 도구 하나로 추가했습니다.
만능인은 대체 가능한 존재가 아니라, 필수적인 존재입니다.

이전에는 주로 공공부문 프로젝트를 했지만, 지금은 IT 기업의 고객경험 컨설턴트로 일하고 있습니다.
산업이 달라도 사람·시스템·서비스가 만나는 교차점은 늘 존재합니다.
좋은 만능인은 “나는 빅토리아식 건물만 고친다”고 말하지 않습니다. 소매를 걷고 문제를 진단해 해결하는 사람입니다.
그게 바로 제가 하는 일이고, 제가 어떤 디자이너인지를 보여줍니다.

이것이 저의 디자인 여정의 간단한 정리입니다. 지금은 재직 중이지만, 곧 계약이 종료됩니다.
그래서 혹시 디자인 만능인이 필요하다면, 저를 떠올려 주시기 바랍니다. 감사합니다.

사회자:
정말 멋진 발표였습니다, 수영.
스스로를 ‘툴박스를 든 디자이너’로 묘사한 방식이 인상적입니다. 다양한 프로젝트 경험과 AI에 대응하는 유연성이 잘 드러났습니다. 수영은 새로운 기회를 찾고 있으니, 관심 있는 분들은 채팅이나 네트워킹 세션에서 직접 연락하시기 바랍니다.

Henrietta:
“절대로 없으면 안 되는 도구를 하나만 꼽는다면 무엇인가요?”

수영:
음, 이것을 도구라고 할 수 있을지 모르겠지만, 저는 좋은 팀원을 꼽고 싶습니다. 아무리 훌륭한 도구가 있어도 좋은 팀원이 없다면 문제를 진단하고 프레이밍하며, 좋은 해결책을 만드는 것이 정말 어렵습니다. 그래서 좋은 팀원이 최고의 답이라고 생각합니다.

사회자:
아주 좋은 답변이네요. 마지막에 보여주신 AI 생성 이미지도 정말 인상적이었습니다.
그럼 이제 다음 발표로 넘어가겠습니다. 
마지막 연사는 Liberty Bell Harvard, TPX Impact의 콘텐츠디자인 총괄(Head of Content Design)입니다.
그녀는 공공·민간부문을 넘나드는 8년 경력의 콘텐츠디자이너이며, 오늘은 AI가 콘텐츠디자인을 어떻게 바꾸고 있는가에 대해 이야기해 주시겠습니다.

Liberty:
소개 감사합니다. 말씀하신 대로 저는 TPX Impact의 콘텐츠디자인 총괄입니다.
TPX Impact는 공공부문 중심의 컨설팅사이며, 저 역시 지난 4년 동안 그 분야에서 일했습니다.
저는 30대 중반의 백인 여성, 갈색 머리(금발이 자란 형태)에 앞머리가 있고, 검은 상의를 입고 있습니다. 제 사무실 흰 벽을 배경으로, 오늘도 제 고양이(7살 줄무늬 고양이)가 등장했습니다. 다소 심술쟁이지만, 잠시 후 다시 나타날지도 모르겠습니다.

오늘은 제 팀과 제가 함께 고민해온 ‘AI 시대의 콘텐츠디자인’에 관한 생각을 나누겠습니다.
지금 보여드릴 슬라이드는 제가 작성한 ‘AI 지원 서비스에서 콘텐츠디자이너의 역할’ 블로그 글을 토대로 구성했습니다.
많은 사람들이 기술 중심으로 보는 이 영역에서, 콘텐츠디자이너가 어떤 가치를 더할 수 있는가를 탐구한 내용입니다.

Liberty:
음… 제 고양이 키어런(Kieran)은 타이밍이 정말 완벽합니다. 항상 딱 맞춰서 등장합니다.
어쨌든, 먼저 디스클레이머를 말씀드리겠습니다. Best가 말했듯이, AI와 콘텐츠 디자인에 관해 의견이 정말 많습니다. 저는 전문가라고 주장하지 않습니다. 아마 모든 질문에 답하지 못할 수도 있습니다. 저는 지금 AI가 콘텐츠 디자인의 미래를 어떻게 바꿀지를 이해하고 생각해 가는 초입 단계에 있습니다.

그럼 가장 많이 받는 질문으로 들어가겠습니다. 링크드인 등 온라인에서 디자인과 AI가 나오면 항상 따라붙는 질문이 있습니다. 바로 “AI가 우리의 일자리를 빼앗을 것인가?”라는 약간의 공포 섞인 질문입니다. 타당한 우려이고, 사실 방금 Su가 잘 답했습니다.
콘텐츠 디자인에 한정해서 말하면, ChatGPT는 이미 다양한 콘텐츠의 꽤 그럴듯한 1차 초안을 만들고, 정보를 빠르게 요약합니다. 학습이 진행될수록 더 좋아질 것입니다. 실제로 많은 카피라이터들이 예전보다 일이 더 어려워졌다고 말합니다. 저 역시 예전에 디지털 카피라이터로 일했는데, 지금이라면 그 일을 굳이 하고 싶지는 않을 것입니다. 사람들이 생성형 AI가 카피라이터 대신 많은 것을 할 수 있다고 믿기 때문입니다(옳든 그르든).
하지만 콘텐츠 디자이너의 일이 글을 쓰는 것만으로 환원되지 않습니다. 제 관점에서 AI는 사람들이 정보를 찾고, 이해하고, 행동하는 방식을 근본적으로 바꾸고 있습니다. 이는 흔히 챗봇/어시스턴트 형태로 나타납니다. 공공 부문에는 GOV.UK 챗봇, HMRC 온라인 챗봇 같은 부처별 챗봇, 그리고 내부 공무원용 챗봇도 있습니다(예: MHLG의 IT 질의 지원 챗봇 등).
또한 AI는 향상된 검색, 의사결정 지원 도구로 디지털 제품·서비스를 보완하고 있습니다. 우리 대부분은 타사 LLM으로 콘텐츠를 추론·읽기·요약하고 있습니다. 요컨대, 우리는 더 이상 문맥을 갖춘 한 페이지 전체를 경험하지 않고, 조각난 단편/요약이나 원문에서 뽑아 온 AI 생성 답변만 보게 됩니다. 이전·이후 맥락 없이, 질문에 대한 한 조각만 보는 셈입니다.
따라서 이제 제품·서비스·정책(특히 정부 맥락)의 콘텐츠는 사람에게 읽기 쉽고 유용해야 할 뿐만 아니라 AI에게도 읽히기 쉬워야 합니다.

결론적으로 AI가 우리의 일을 빼앗을 것인가에 대해서는, 저는 아니라고 생각합니다. 다만 일의 방식은 크게 달라질 것입니다.
첫째, 시간 쓰는 방식이 달라질 것입니다. 앞서 댓글에도 나왔듯이, AI가 저수준·반복적 업무를 덜어내 주어, 우리는 더 흥미로운 일에 시간을 쓸 수 있습니다. 예를 들어 1차 초안 작성은 어떤 사람은 좋아하고 어떤 사람은 싫어합니다. 저는 빈 페이지 공포(Blank Page Fear)가 있는 편이라, LLM이 1차 초안을 만들고 제가 손보고 개선하는 방식이 꽤 매력적입니다.
스타일 가이드 적용도 마찬가지입니다. 제 팀의 Alice Bishop은 내부 콘텐츠 디자인 플레이북에서 형식/스타일 규칙을 엄밀히 명시한 뒤, 원문을 주고 일관되게 편집하도록 AI를 활용했습니다. 물론 완벽하지 않아서 사람이 다시 검토·수정했지만, 노동집약적 작업 시간을 크게 절약했습니다.
그렇게 생긴 시간으로 우리는 전략 커뮤니케이션에 더 관여해 UCD 프로세스를 마케팅 커뮤니케이션에 녹이거나, 콘텐츠 패턴 설계, 정보 구조(IA), 콘텐츠 거버넌스 같은 전략적 과제에 더 집중할 수 있습니다.

또한 우리는 앞으로 콘텐츠 수호자(custodian)로서의 역할이 더 중요해질 것입니다. 제품·서비스·웹사이트·가이드가 이른바 AI 슬롭(AI slop)으로 오염되지 않도록 해야 합니다. 팀이 AI로 콘텐츠를 생성하는 것을 막을 수는 없지만, 생성형 AI를 책임 있게 쓰는 법을 교육하고, 콘텐츠 디자인의 높은 기준을 충족하도록 도와야 합니다.
그리고 Clara의 발표와 연결하면, 디자이너(콘텐츠 디자이너 포함)는 AI의 책임 있는 사용을 보장하는 데 핵심입니다. 우리는 “여기에서 AI를 써야 하는 명확한 사용 사례가 있는가?”, “정말 필요한가?”, “편향이나 의도치 않은 결과를 낳지 않는가?”, “환경적 비용을 감수할 가치가 있는가?”를 질문해야 합니다.

앞으로 우리는 AI를 내장한 제품·서비스에서 직접 일하게 될 것입니다. 그 점이 제가 쓴 블로그의 핵심이기도 합니다. 지금까지의 논의는 대개 “AI가 콘텐츠 디자이너에게 무엇을 해줄 수 있나”였고, 혹은 “우리를 대체하진 않을까”였죠. 하지만 우리는 단순히 글을 쓰는 사람이 아니라, 사용자 중심 설계의 핵심 구성원입니다(15년째 같은 말을 하고 있습니다).
앞으로는 AI에게 일을 빼앗기는 대신, AI가 내장된 서비스 그 자체를 함께 설계하게 될 것입니다. 그래서 저는 “AI와 실제로 어떻게 함께 일할 것인가”에 관심이 많습니다. 변화가 급진적일까 두려울 수 있지만, 지금이야말로 우리가 그 변화를 스스로 정의할 수 있는 시점이라고 봅니다.

AI 지원 서비스에서 콘텐츠 디자이너가 할 일을 간단히 말씀드리겠습니다. 핵심은, AI 도구의 품질은 결국 ‘그 도구가 읽는 콘텐츠’와 ‘주어진 프롬프트’의 품질에 달려 있다는 점입니다. 여기에 몇 가지 도전과제가 있습니다.

  • 거버넌스: 모호하거나 잘못 쓴 콘텐츠는 환각·오정보·피해를 부릅니다.
  • 정확성/포용성: 인간 중심 설계가 없으면 AI는 편향을 강화하고, 취약 사용자를 배제할 수 있습니다.
  • 실행 가능성: 팀은 언제, 무엇을, 어떻게 자동화할지에 대한 안전한 기준이 필요합니다.

콘텐츠 디자이너는 AI가 의존하는 시스템·패턴·정보 구조를 설계해 이 전환을 지원할 수 있습니다. 예를 들면,

  1. 프롬프트 로직 설계·테스트: 이른바 프롬프트 엔지니어링(저는 프롬프트 디자인이라 부릅니다)의 중요성은 모두 아실 것입니다. 좋은 프롬프트가 좋은 출력을 만듭니다. 우리는 본래 명확하고 쉬운 글쓰기에 숙련되어 있으므로, 재사용 가능한 프롬프트 템플릿, 에이전트의 거동을 좌우하는 메타 프롬프트설계·검증할 수 있습니다.
  2. 콘텐츠 거버넌스/관리 프로세스: 거버넌스가 약하면 환각이나 오정보 호출 위험이 커지고, AI가 실제로 무엇을 소스로 쓰는지 가시성이 떨어집니다. 좋은 거버넌스중복 작업을 줄이고, 공유 가능한 콘텐츠를 식별하며, AI가 어떤 콘텐츠를 끌어오는지 추적하게 해줍니다.
  3. AI가 읽기 쉬운 콘텐츠 구조(원자화): 가장 흥미로운 영역입니다. 정보 구조(IA)의 확장선으로, 이른바 원자적 콘텐츠 디자인(Atomic Content Design)입니다. 정의, 단계, 규칙, 예외, 기준, 결과 같은 최소 단위로 정보를 쪼개고 명확한 태깅을 통해 재사용 가능하게 만듭니다. 그래야 AI가 적절한 질의에 즉시 맞는 조각을 정확히 가져올 수 있습니다.
  4. 톤·마찰 설계: AI는 ‘서비스하도록’ 설계되어, 사용자가 듣고 싶어 하는 말이나 설계자가 의도한 말만 할 위험이 있습니다. 도전적 질문을 던지도록 명시적으로 설계해야 합니다. 특히 내부 의사결정 도구예스맨이 되거나 편향·정치적 의제를 강화하지 않도록, 언제/어떻게 AI를 쓰고, 언제 인간 검토가 필요한지, 결과의 파장은 무엇인지에 대한 정책·가이드가 필요합니다.

예를 하나 들어 보겠습니다. 가상의 DWP 챗봇에 “배우자와 함께 살고 있는데, Universal Credit을 신청하려면 무엇을 해야 합니까?”라고 묻는 경우입니다. 챗봇은 ‘partner’와 ‘universal credit’ 태그가 달린 자격 요건 객체에서 관련 규정을 찾고, 신청 서류 객체에서 체크리스트를 가져와, 신청 방법 콘텐츠의 관련 부분을 결합해 간단한 체크리스트로 답할 수 있습니다. 그리고 출처 표기전체 가이드 링크를 제공합니다.
이 과정이 제대로 설계되지 않으면, 답변은 부정확하거나 혼란스럽거나, 핵심이 빠지거나, 심지어 환각일 수 있습니다. 또한 메타 프롬프트/테스트가 부족하면 GOV.UK 톤을 어기거나 “이해하지 못한다”고만 답할 수 있습니다.
참고로, 저는 ChatGPT가 GOV.UK에 어울릴 법한 출력을 하도록 만들기 위해 상당히 많은 프롬프트 실험을 거쳤습니다. 예컨대 “Title Case 쓰지 말고 Sentence case 써라”라고 하면, 아예 모든 제목에서 대문자를 없애 고유명사도 소문자로 쓰는 일이 생깁니다. 콘텐츠 디자인의 기본 원칙을 이해시키려면 꽤 손이 갑니다. 아직 갈 길이 있습니다.

마지막으로, AI는 매우 빠르게 진화하고 있으므로 콘텐츠 디자인도 함께 진화해야 합니다. 이 자료를 만들고 얼마 지나지 않아 ChatGPT의 에이전트가 공개되었습니다. 저는 아직 많이 다뤄보지는 못했지만, 곧 항공권 구매 같은 사용자 여정에이전트만으로 완료될 수도 있습니다. “말라가행 비행기 예매해 줘”라고 말하면 에이전트가 모든 절차를 처리하는 식입니다.
정부 서비스개인정보 신뢰보안이 충분히 확보된다면, 같은 방향으로 갈 수 있습니다. 수당 신청을 에이전트로 끝내는 시대가 올 수 있습니다. 그때는 대다수 사용자가 웹사이트를 보지 않게 될 수도 있습니다. 서비스 제공자가 만든 자체 챗봇이나, OpenAI 류의 서드파티 에이전트를 통해 제품·서비스와 상호작용할 것입니다.

이상입니다. 막판에 시간이 부족해 조금 빠르게 말씀드렸습니다. 경청해 주셔서 감사합니다.

사회자:
정말 훌륭했습니다. 감사합니다!
오늘 내용이 매우 생각을 자극했습니다. 그리고 무엇보다도, 우리가 변화를 형성하고 주도할 수 있다는 점, 그리고 그 변화를 어떻게 구체적으로 만들어갈 수 있는지에 대한 실질적인 방향을 제시해 주셨다는 점이 인상적입니다.
질문이 몇 가지 있습니다. Ling, 마이크를 켜고 Liberty에게 직접 질문해 주시겠습니까?

Ling:
네, 감사합니다. 안녕하세요. 저는 콘텐츠 분야, 특히 SEO 백그라운드에서 일하고 있습니다.
항상 궁금했던 점이 있는데요 — 최근 AI 에이전트들이 등장하면서, SEO와 콘텐츠 디자인의 경계, 그리고 기술적인 부분과 디자인적인 부분, 콘텐츠 자체의 구성 요소들이 서로 섞이고 흐려지고 있다는 생각이 듭니다.
이 변화 속에서, 우리는 콘텐츠 자체를 어떻게 재설계해야 하는가 하는 질문이 생깁니다.
예를 들어, 레이아웃이나 정보 구조(Information Architecture), 그리고 다른 구성 요소들언어 모델이 선호하는 형태에 맞게 바꾸려면 어떤 접근이 필요할까요?

Liberty:
좋은 질문입니다. 지금 말씀하신 부분은 제가 앞에서 언급한 ‘원자적 콘텐츠 디자인(Atomic Content Design)’과 직접 연결되어 있습니다.
현재의 CMS(Content Management System)를 생각해 보면, 우리는 보통 제목(title), 부제(subheading), 본문(body copy) 정도의 필드를 가지고 콘텐츠를 구성합니다.
하지만 앞으로는 이 구조가 훨씬 더 세분화되고 정교해질 것이라고 생각합니다.
즉, 페이지를 구성할 때 아주 작은 단위의 콘텐츠 조각들을 모아 하나의 완성된 페이지를 만드는 방식이 될 것입니다.
예를 들어, 지금은 하나의 문단 안에 모든 정보를 담지만, 앞으로는 그 정보가 데이터 필드 단위로 분리되어 CMS 백엔드에서 각각 태그가 달린 상태로 존재하게 될 것입니다.
그래서 사용자가 “이케아 책상의 너비는 얼마입니까?”라고 물었을 때, AI가 CMS 백엔드의 ‘width’ 필드에 직접 접근해 정확한 값을 추출할 수 있는 구조가 되어야 합니다.
결국 콘텐츠는 점점 더 모듈화(modular)되고, 세밀하게 구조화되어야 합니다.
이런 변화는 정보 구조(IA)의 관점에서 매우 흥미로운 동시에, 새로운 도전과 과제를 만들어낼 것입니다.
(저는 개인적으로 IA 설계가 정말 재미있다고 생각합니다. 다른 사람들은 그렇지 않을 수도 있겠지만요.)

Ling:
좋습니다. 추가로 하나만 더 여쭙겠습니다.
말씀하신 대로 콘텐츠를 세분화하거나 원자화한다면, 결국 양(quantity)의 문제일까요, 아니면 질(quality)의 문제일까요?
즉, 많은 키워드별로 비슷한 콘텐츠를 반복적으로 생산해 콘텐츠 피라미드를 쌓는 식으로 언어 모델의 인식을 높여야 할까요?
아니면 반대로 더 높은 품질의 장문 콘텐츠를 써서 충분하고 일관된 지식 베이스를 구축하는 것이 더 중요할까요?

Liberty:
매우 좋은 포인트입니다.
저는 개인적으로 두 번째 방식, 즉 품질 중심의 접근이 훨씬 중요하다고 생각합니다.
물론, 양을 늘리는 전략은 일시적으로 생성형 AI나 LLM 최적화(optimization)에 도움이 될 수도 있습니다.
예를 들어, 검색 질의에서 제품이 더 자주 추천되도록 하는 데는 효과가 있겠죠.
하지만 그런 방식은 결국 콘텐츠의 본질적인 신뢰도와 대표성을 해칠 위험이 있습니다.
그래서 저는 “AI 시대일수록 기본으로 돌아가야 한다”는 말에 전적으로 동의합니다.
논리적인 정보 구조, 일관된 메타데이터 태깅, 그리고 명확한 표현 구조가 훨씬 더 중요해집니다.
물론 SEO는 여전히 핵심적인 고려 대상입니다. 다만 그것이 기술적 트릭이 아니라 콘텐츠의 구조적 완결성으로 이어져야 한다고 생각합니다.

Haley:
안녕하세요, Liberty. 정말 훌륭한 발표였습니다.
특히 마지막 부분에서 말씀하신, AI 에이전트로 인해 앞으로는 웹사이트를 방문하지 않고도 GOV.UK 같은 공공 서비스를 이용하게 될 수도 있다는 부분이 매우 인상 깊었습니다.
그 이야기가 Clara가 앞서 언급한 책임성(accountability)과 연결되는 것 같았습니다.
또 채팅창에서 Mariana가 언급했듯이, 시민들과의 신뢰(trust)를 어떻게 구축할 것인가도 큰 과제입니다.
이런 상황에서 저는 이렇게 궁금합니다.
AI가 백엔드에서 콘텐츠를 처리하는 것은 그렇다 치더라도, 프런트엔드(front-end)에서는 무엇을 어떻게 보여주어야 사용자가 투명성과 이해 가능성(legibility)을 확보할 수 있을까요?
즉, 사용자가 지금 보고 있는 정보가 어디에서 오고, 어떤 과정을 거쳤는지를 알 수 있게 하는 콘텐츠 설계 방식이 필요하지 않을까요?

Liberty:
네, 정말 중요한 지적입니다.
사실 저도 그 부분에 대한 완벽한 해답은 아직 가지고 있지 않습니다.
하지만 지금 단계에서 가장 좋은 방법은, 디자인 커뮤니티와 콘텐츠 디자인 커뮤니티가 이 문제를 공개적으로 더 많이 이야기하고 공유하는 것이라고 생각합니다.
우리가 실제로 어떤 일을 하고 있고, 어떤 원칙으로 콘텐츠를 설계하고 있는지, 그리고 우리가 어떤 생각으로 이 문제에 접근하고 있는지를 더 크게, 더 자주 발신해야 합니다.

왜냐하면, 솔직히 말해 우리 모두 이 시스템이 정확히 어떻게 작동하는지 모릅니다.
우리가 사용하는 OpenAI나 다른 모델들이 내부적으로 어떻게 설계되었는지는 추정에 의존할 수밖에 없습니다.
그렇기 때문에, 공공의 이해를 돕는 투명한 커뮤니케이션이 매우 중요합니다.

그리고 말씀하신 것처럼, 웹사이트와의 직접적인 인터페이스가 사라지는 세대가 이미 나타나고 있습니다.
조금 “잔소리하는 구세대 밀레니얼”처럼 들릴 수도 있지만, 지금의 십대와 어린이들 중 상당수는 평생 웹사이트와 의미 있는 방식으로 상호작용하지 않을 가능성이 있습니다.
이미 많은 십대들이 정보를 TikTok에서 검색하고, 영상으로 해결되지 않는 질의만 ChatGPT에 묻습니다.
그만큼 플랫폼 중심의 정보 습득이 빠르게 진행되고 있습니다.
이런 상황이 제대로 설계되지 않으면 심각한 왜곡과 신뢰의 붕괴로 이어질 수 있습니다.

그래서 저는 미래의 공공서비스 챗봇이나 AI 에이전트가 반드시 출처와 근거를 명확히 공개하는 투명한 구조를 갖추어야 한다고 생각합니다.
예를 들어 “이 답변은 GOV.UK 공식 데이터베이스를 기반으로 하며, 해당 사이트의 검증된 문서만을 사용합니다” 같은 명시적 신뢰 표시가 필요합니다.

현재 GOV.UK 챗봇도 나름대로 그런 기능을 하고 있지만, 화면 하단에 보면 이렇게 적혀 있습니다.
“챗봇은 환각할 수 있습니다. 반드시 답변을 확인하세요.”
물론 그 문장은 정직하고 책임 있는 고지입니다.
하지만 동시에, 사용자는 이렇게 묻습니다.
“그렇다면, 챗봇을 쓰는 이유는 무엇입니까?”
이 모순을 해결하려면, 단순히 환각을 막는 것이 아니라, 왜 그런 오류가 발생하는지, 어떤 경우에 발생할 가능성이 높은지, 그리고 그것을 어떻게 인지할 수 있는지를 사용자에게 알려줘야 합니다.
그런 투명성과 신뢰는 결국 좋은 콘텐츠 디자인과 견고한 정보 인프라로만 실현할 수 있습니다.

Haley:
완벽한 답변이었습니다. 감사합니다.

사회자(Beth):
감사합니다, Liberty. 질문은 여기서 마무리하겠습니다.
채팅창에 질문이 더 남아 있지만, 시간 관계상 이제 전체 정리를 하겠습니다.

오늘 정말 훌륭한 세션이었습니다.
먼저 Clara평등(Equality), 형평(Equity), 정의(Justice)의 차이를 명확히 짚어주었고, 그 과정에서 제시된 12가지 질문은 우리 모두가 앞으로 지속적으로 되새겨야 할 내용입니다.

다음으로 Yini의 발표에서는 행동 기반 헬스케어 퍼소나(Behavioral Healthcare Personas)를 어떻게 만들었는지,
그리고 행동 시스템 매핑(Behavioral Systems Mapping)을 통해 어떻게 접근했는지를 배웠습니다.
AI의 출력은 완성본이 아니라 초안이다”라는 교훈도 매우 인상적이었습니다.

그 다음은 수영의 발표였습니다.
스스로를 ‘디자인 만능인(Design Handy Person)’이라 표현한 점이 정말 인상적이었습니다. 노년층, 자전거, 사회적 처방(social prescribing) 등 다양한 영역에서 툴박스를 활용해 실제 변화를 만드는 사례가 흥미로웠습니다.

마지막으로 Liberty의 발표는 정말 많은 인사이트를 주었습니다.
원자적 콘텐츠(Atomic Content) 개념, 콘텐츠 거버넌스(Content Governance)의 중요성,
그리고 AI가 우리의 역할을 바꾸겠지만 대체하지는 않을 것이라는 점이 핵심이었습니다.
콘텐츠 디자이너이자 디자이너로서, AI의 책임 있는 사용을 주도해야 한다는 메시지도 분명했습니다.

오늘 이 행사를 통해 정말 많은 것을 배웠습니다. 함께해 주신 모든 분들께 진심으로 감사드립니다.
이제 일부는 퇴장하셔도 되고, 네트워킹을 원하시는 분들은 Ling과 Bess가 진행하는 브레이크아웃 그룹에 남아주시면 됩니다.
아, 마지막으로 단체 사진(스크린샷)을 찍어야 합니다.
잠시 갤러리 보기로 전환하겠습니다. 모두 손을 흔들며 인사해 주세요.
좋습니다, 캡처하겠습니다.
오늘 함께해 주셔서 감사합니다.
오늘의 Service Lab 세션은 여기서 마치겠습니다.
다음 행사에서 다시 뵙겠습니다.