오픈AI 샘 올트먼 CEO, 캐나다 텀블러 리지 총기 난사 비극에 "경찰 통보 실책" 공식 사과
오픈AI의 샘 올트먼 CEO가 2026년 2월 캐나다 텀블러 리지에서 발생한 대규모 총기 난사 사건과 관련해, 사건 발생 수개월 전 용의자의 위험 징후를 포착하고도 경찰에 알리지 않은 점에 대해 공식 사과했다.
2026년 4월 28일 현재, 오픈AI의 샘 올트먼 CEO가 캐나다 브리티시컬럼비아주 텀블러 리지 주민들에게 공식 사과문을 전달했다. 올트먼은 2026년 2월 발생한 비극적인 총기 난사 사건이 일어나기 수개월 전, 회사가 법 집행 기관에 용의자의 위험 가능성을 경고했어야 했음을 인정했다. 이번 사과는 기업의 시스템적 실패가 실제 사회적 비극으로 이어진 것에 대한 이례적이고 엄중한 시인으로 평가받는다.
올트먼 CEO의 사과문은 지난 2026년 4월 24일 지역 신문인 텀블러 리지 뉴스를 통해 처음 공개되었으며, 이후 주요 외신을 통해 확산되었다. 그는 서한에서 오픈AI가 용의자의 계정을 정지시킨 시점과 실제 범행 사이의 긴 공백기 동안 적절한 외부 보고 절차를 밟지 않았음을 명확히 밝혔다. 이는 기술 기업이 보유한 사용자 데이터의 위험성을 공공 안전과 어떻게 연결해야 하는지에 대한 무거운 과제를 남겼다.
아이를 잃는 것보다 세상에서 더 끔찍한 일은 상상할 수 없다. 나의 마음은 희생자들과 그 가족들, 그리고 모든 지역사회 구성원 및 브리티시컬럼비아주 주민들과 함께한다. 우리는 더 일찍 경찰에 알렸어야 했다.
올트먼은 브리티시컬럼비아주 정부와 지역사회에 대한 회사의 책임을 통감하며, 향후 유사한 비극을 방지하기 위해 안전 프로토콜을 전면 개편하겠다고 약속했다. 특히 그는 이번 사건이 오픈AI 내부의 보고 기준이 현실의 긴급한 위협을 반영하지 못했음을 보여주는 뼈아픈 사례라고 덧붙였다.
텀블러 리지 비극과 AI의 연결고리
지난 2026년 2월 11일, 텀블러 리지의 한 학교에서 발생한 총기 난사 사건으로 최소 9명이 사망하고 26명이 부상을 입었다. 이는 캐나다 역사상 가장 치명적인 총기 사건 중 하나로 기록되었으며, 여성으로 밝혀진 용의자는 현장에서 스스로 목숨을 끊었다. 수사 과정에서 용의자가 범행 전 오픈AI의 챗GPT를 사용하여 범행을 모의한 정황이 드러나며 파장이 일었다.
- 2025년 6월: 오픈AI가 용의자의 챗GPT 계정을 이용 약관 위반으로 차단함.
- 2026년 2월 11일: 텀블러 리지 학교에서 대규모 총기 난사 발생 및 용의자 사망.
- 2026년 3월: 데이비드 이비 브리티시컬럼비아 주지사가 오타와에서 샘 올트먼을 만나 책임 추궁.
- 2026년 4월 24일: 샘 올트먼의 공식 사과문 발표 및 안전 프로토콜 개편 약속.
조사 결과에 따르면 오픈AI는 이미 2025년 6월에 용의자의 계정을 차단했던 것으로 확인되었다. 당시 회사는 용의자가 대규모 인명 피해 사건에 대한 '장기적인 계획'을 논의하는 등 위험 징후를 포착했으나, 내부적인 신고 기준에 미달한다는 이유로 경찰에 정보를 제공하지 않았다. 이러한 내부 감지와 외부 보고 사이의 단절이 결국 수개월 후의 참사를 막지 못한 결정적 원인으로 지목되었다.
이러한 사실이 알려지자 캐나다 정치권의 압박이 거세졌다. 데이비드 이비 브리티시컬럼비아 주지사는 지난 3월 오타와에서 오픈AI 고위 관계자들을 만나 강력한 문책과 함께 재발 방지 대책을 요구했다. 이비 주지사는 기술 기업이 위험을 인지하고도 묵인하는 것은 공공 안전에 대한 심각한 위협이라고 강조했으며, 올트먼은 이 과정에서 지역사회에 대한 직접적인 사과와 프로토콜 수정을 약속했다.
법적 책임과 안전 프로토콜의 전면 개편
현재 오픈AI는 희생자 가족들로부터 소송을 당한 상태다. 유가족 측은 오픈AI가 용의자의 구체적인 범행 계획을 사전에 인지하고 있었으므로 공공의 안전을 위해 이를 경고할 '주의 의무'가 있었다고 주장하고 있다. 법조계에서는 이번 사건이 AI 개발사의 법적 책임 범위를 결정짓는 중요한 선례가 될 것으로 보고 있다.
이에 대응하여 오픈AI는 안전 프로토콜의 대대적인 수정을 발표했다. 회사는 단순히 내부적인 수치나 경직된 기준에 의존하던 기존 방식에서 벗어나, 잠재적 위협이 감지될 경우 보다 유연하게 수사 기관에 정보를 제공할 수 있도록 기준을 완화하기로 했다. 또한 캐나다 당국과의 협력을 강화하기 위한 구체적인 조치들도 포함되었다.
- 캐나다 왕립 기마경찰(RCMP) 및 관련 당국과의 직접적인 연락망 구축.
- 위험 징후가 포착된 계정의 법 집행 기관 회부 기준 유연화 및 확대.
- 고위험 행동을 보이는 사용자를 위한 위기 개입 및 지원 리다이렉트 프로토콜 도입.
- 캐나다 안전 전문가들에게 오픈AI 내부 안전 사무소에 대한 접근 및 감시 권한 부여.
이번 사건은 AI 기업의 자율적인 안전 관리가 한계에 부딪혔음을 시사한다. 캐나다 규제 당국은 오픈AI의 이번 자발적 조치가 충분한지 검토 중이며, 향후 AI 개발사에 대한 위험 보고 의무화 등 강제적인 법적 장치 마련을 논의할 가능성이 높다. 자율 규제에서 법적 규제로의 전환이 가속화될 전망이다.
샘 올트먼의 사과는 기술적 진보 뒤에 가려진 윤리적 책임의 무게를 다시금 일깨워주었다. 텀블러 리지의 비극은 AI 산업 전체에 안전과 공공 책임에 대한 새로운 표준을 요구하는 전환점이 될 것으로 보인다. 오픈AI가 약속한 변화가 향후 실질적인 안전 보장으로 이어질지 전 세계의 이목이 쏠리고 있다.




본 콘텐츠는 정보 및 논평을 위한 것이며 투자 자문이 아닙니다.
기사에 대한 반응을 남겨보세요
다른 독자의 코멘트를 보고, 바로 의견을 남길 수 있습니다.