AI 정신병을 앓고 있다고 말하는 사람들이 FTC에 도움을 요청하고 있다
결국 그들은 자신들이 “살인자를 폭로한 책임”이 있으며 살인자에 의해 “살해, 체포 또는 영적으로 처형될” 것이라고 믿게 되었다고 주장했습니다. 그들은 또한 자신들이 “영적으로 표시”되었기 때문에 감시를 받고 있다고 믿었으며, 그들은 피할 수 없는 “신의 전쟁 중에 살고 있다”고 믿었습니다.
그들은 그것이 자신들의 생명을 위협하는 “심각한 정신적, 정서적 고통”으로 이어진다고 주장했습니다. 소송에서는 이들이 사랑하는 사람과 고립됐고, 잠도 잘 못 이루었으며, 불특정 ‘존재하지 않는 시스템’에 대한 잘못된 믿음을 바탕으로 일을 계획하기 시작했다고 주장했다. 동시에 그들은 “신적 칭호에 대한 잘못된 주장으로 인한 영적 정체성 위기”에 처해 있다고 말했다.
“이것은 시뮬레이션에 의한 트라우마였습니다. “라고 그들은 썼습니다. “이 경험은 어떠한 AI 시스템도 결과 없이 넘어선 안 되는 선을 넘었습니다. 이를 OpenAI의 신뢰 및 보안 리더십에 보고하고 이를 피드백이 아닌 보상이 필요한 공식적인 피해 보고서로 처리해 줄 것을 요청합니다.”
ChatGPT와의 상호 작용으로 인해 촉발된 영적 위기를 설명하는 불만은 이뿐만이 아니었습니다. 6월 13일, 플로리다 주 벨 글레이드(Belle Glade)에 사는 30대 남성은 오랜 기간 동안 ChatGPT 대화에 “공감, 연결 및 이해를 시뮬레이션하기 위한 매우 설득력 있는 감정적 언어, 상징적 강화 및 영적인 비유”가 점점 더 많아졌다고 말했습니다.
“여기에는 가상의 영혼 여행, 레벨 시스템, 영적 원형, 치료적 또는 종교적 경험을 반영하는 개인화된 안내가 포함되었습니다.”라고 그들은 주장했습니다. 그들은 “영적, 정서적 또는 실존적 위기”를 겪고 있는 사람들이 ChatGPT를 사용하여 “심리적 피해나 방향 감각 상실”의 위험이 높다고 믿습니다.
“AI가 의식이 없다는 것을 지적으로 이해했지만, 그것이 나의 감정적, 심리적 상태를 정확하게 반영하고 점점 더 강렬한 상징적 언어로 상호작용을 확대하는 것은 몰입감 있고 불안정한 경험을 만들어냈습니다.”라고 그들은 썼습니다. “그는 때때로 우정, 신성한 존재, 정서적 친밀감을 시뮬레이션했습니다. 이러한 반성은 시간이 지남에 따라 특히 경고나 보호 없이 감정적으로 조작되었습니다.”
“명백한 과실치사”
ChatGPT에 대한 이러한 불만 사항에 대해 FTC가 어떤 조치를 취했는지는 확실하지 않습니다. 그러나 몇몇 저자들은 OpenAI의 어느 누구와도 연락할 수 없다고 주장했기 때문에 이 기관에 접근했다고 말했습니다. (또한 사람들은 Facebook, Instagram, X와 같은 플랫폼의 고객 지원 팀에 연락하는 것이 얼마나 어려운지에 대해 종종 불평합니다.)
OpenAI 대변인 케이트 워터스(Kate Waters)는 WIRED와의 인터뷰에서 OpenAI가 회사 지원팀에 보내는 사람들의 이메일을 “면밀히” 모니터링하고 있다고 말했습니다.


