AI는 오답을 낼 수 있다. 사용자는 AI의 오답을 믿고 의사결정한 결과 막대한 피해를 입을 수도 있다. 그 책임은 누구에게 있을까? 이러한 책임관계를 이해하는 것은 AI가 책임감 있고 윤리적인 방식으로 개발 및 사용되게 하고, 사용자들이 잠재적인 위험을 피할 수 있도록 하기 위해 중요하다. 일이 잘못되어 책임을 묻는다면 결과의 원인인 당사자들이 그 대상이 되어야 한다. 그리고 책임 배분은 결과에 얼마나 역할을 했는가에 따라야 한다. 책임의 배분은 구체적 상황과 피해에 대한 책임 정도에 따라 달라지겠지만 대체로 '시스템의 개발자', '시스템의 운영자', '오답을 만들어 낸 AI', '오답에 의존한 사용자'가 대상이 될 것이다. 예를 들어, AI가 결함이 있는 방식으로 설계되고 구현되었거나 목적을 벗어나 ..