AI(72)
-
AI의 거짓말, 누가 책임져야 하나?
AI는 오답을 낼 수 있다. 사용자는 AI의 오답을 믿고 의사결정한 결과 막대한 피해를 입을 수도 있다. 그 책임은 누구에게 있을까? 이러한 책임관계를 이해하는 것은 AI가 책임감 있고 윤리적인 방식으로 개발 및 사용되게 하고, 사용자들이 잠재적인 위험을 피할 수 있도록 하기 위해 중요하다. 일이 잘못되어 책임을 묻는다면 결과의 원인인 당사자들이 그 대상이 되어야 한다. 그리고 책임 배분은 결과에 얼마나 역할을 했는가에 따라야 한다. 책임의 배분은 구체적 상황과 피해에 대한 책임 정도에 따라 달라지겠지만 대체로 '시스템의 개발자', '시스템의 운영자', '오답을 만들어 낸 AI', '오답에 의존한 사용자'가 대상이 될 것이다. 예를 들어, AI가 결함이 있는 방식으로 설계되고 구현되었거나 목적을 벗어나 ..
2023.02.03 -
chatGPT의 부상: 한 달간 사용 후 배운 6가지 교훈
chatGPT의 부상: 한 달간 사용 후 배운 6가지 교훈 요즘 chatGPT가 폭풍을 일으키고 있다. 인터넷이 전세계에 빠르게 확산되던 시기보다 더 빨리 검색을 새로운 차원으로 바꾸게 될 것 같다. 지금까지 상상해보지 못했던 결과물이 빠르게 만들어지는 것을 경험하면서 사람들의 장밋빛 미래에 대한 기대가 하이퍼사이클 Hype Cycle의 꼭지점을 향해 가파르게 오르고 있다. 나는 업무에 활용 할 수 있는 부분이 얼마나 될까하는 호기심으로 지난 한 달 여 ChatGPT를 사용해보면서 한계와 가능성에 대해 몇 가지 중요한 교훈을 배웠다. 의외의 불안한 부분도 느낀 부분이 있기에 이를 정리해본다. 1. chatGPT를 맹목적으로 믿지 말라. chatGPT가 완벽하게 논리적으로 보이는 대답을 제공할 수 있지만,..
2023.02.02