구글, 미 국방부와 기밀 AI 계약 체결: 안전 필터 수정 허용에 내부 반발 확산
구글이 미 국방부와 기밀 AI 계약을 체결하며 군사적 협력을 강화했다. 이번 계약은 정부의 요청에 따라 AI 안전 설정을 수정할 수 있는 권한을 부여해 내부 직원들의 거센 항의를 불러일으키고 있다.
2026년 4월 28일, 구글이 과거의 약속을 뒤집고 미 국방부(펜타곤)와 기밀 AI 계약을 체결했다는 소식이 전해졌다. 이번 계약은 미군이 구글의 핵심 AI 모델에 적용된 안전 필터의 수정을 요청할 수 있는 권한을 포함하고 있어 윤리적 논란이 되고 있다.
'모든 합법적인 정부 목적'을 위해 구글의 AI 모델을 사용할 수 있도록 허용하는 이번 거래는 인공지능의 전쟁 활용에 대한 윤리적 경계를 둘러싼 내부 논쟁을 재점화했다. 이는 2018년 발생했던 역사적인 직원 반란을 연상시키며, 빅테크와 국가 안보 기관 간의 새로운 협력 시대를 시사한다.
2026년 4월 말 보고된 이번 기밀 계약은 구글의 AI 기술이 광범위한 정부 용도로 활용될 수 있는 길을 열어주었다. 이는 펜타곤이 2025년 주요 AI 연구소들과 체결한 각각 2억 달러 규모의 일련의 계약에 이은 후속 조치로 풀이된다. 구글은 이를 통해 국방부의 기밀 네트워크 내에서 자사의 최첨단 모델을 제공하게 된다.
이번 계약은 구글이 오랫동안 고수해온 윤리적 원칙에서 크게 후퇴한 것이며, AI 기술이 살상 무기 체계에 통합될 위험을 방치하는 행위다.
이번 계약의 핵심적인 특징은 정부의 요청에 따라 구글이 AI 안전 설정 및 필터를 조정하는 데 협력해야 한다는 조항이다. 일반적인 상업용 AI 도구에 적용되는 엄격한 제한 사항과 대조적으로, 국방부는 특정 군사적 목적을 위해 이러한 가드레일을 완화하거나 수정할 수 있는 권한을 갖게 된다.
내부 반발과 프로젝트 메이븐의 재림
구글 내부에서는 즉각적인 반발이 터져 나왔다. 직원들은 서한을 통해 AI 기술이 권력을 집중시키고 오류를 범하기 쉽다는 점을 지적하며, 회사가 유해하거나 비윤리적인 배포를 피해야 한다고 촉구했다. 특히 투명성과 책임성이 결여된 상태에서의 AI 배포가 가져올 위험성에 대해 깊은 우려를 표명했다.
- AI 모델의 판단 오류로 인한 민간인 피해 가능성
- 군사적 활용에 대한 투명한 정보 공개 부족
- 회사의 AI 윤리 원칙 위반 및 기업 문화 훼손
이러한 상황은 2018년 구글이 드론 유도 AI 계약인 '프로젝트 메이븐(Project Maven)'을 포기하게 만들었던 당시의 갈등을 떠올리게 한다. 당시 수천 명의 직원이 서명 운동을 벌이고 일부는 퇴사까지 감행하며 회사를 압박한 결과, 구글은 해당 계약의 갱신을 거부하고 군사적 용도의 AI 개발에 신중을 기하겠다고 약속한 바 있다.
하지만 2026년의 이번 계약은 당시의 입장을 완전히 뒤집는 결정으로 평가받는다. 구글은 이제 오픈AI(OpenAI) 및 xAI와 함께 펜타곤의 기밀 AI 프로젝트에 참여하는 주요 기업 명단에 이름을 올리게 되었다. 반면, 앤스로픽(Anthropic)은 무기 및 감시 관련 가드레일 제거 요청을 거부했다는 이유로 국방부의 블랙리스트에 오른 것으로 알려져 대조를 이룬다.
시장은 이번 계약 소식을 긍정적으로 받아들였다. 알파벳(GOOG) 주가는 보도가 나간 직후인 4월 28일 종가 기준으로 전 거래일 대비 1.81% 상승한 348.52달러를 기록했다. 투자자들은 국방부의 AI 예산 확대가 구글의 새로운 수익원이 될 것으로 기대하고 있다.
펜타곤은 향후 5년간 팔란티어(Palantir)가 구축한 메이븐 플랫폼을 확장하기 위해 23억 달러의 예산을 요청한 상태다. 이는 전장 실황 분석 AI를 무기 체계와 직접 연결하려는 전략적 전환을 의미하며, 구글의 기술이 이 과정에서 핵심적인 역할을 수행할 가능성이 높음을 시사한다.
결론적으로 2026년의 이 계약은 실리콘밸리에서 AI를 '이중 용도(Dual-use)' 기술로 간주하는 경향이 완전히 정착되었음을 보여준다. 내부 직원들의 강력한 항의에도 불구하고, 거대 기술 기업과 국방부 간의 전략적 결합은 국가 안보와 기술 패권 경쟁이라는 명분 아래 더욱 가속화될 전망이다.
| Company | Contract Status | Key Terms/Notes |
|---|---|---|
| Active (Classified) | Allows 'any lawful purpose'; government can request safety filter adjustments. | |
| OpenAI | Active (Classified) | Tools available on classified networks. |
| xAI | Active (Classified) | Participating in classified U.S. government AI deals. |
| Anthropic | Blacklisted | Reportedly excluded for refusing to remove weapon and surveillance guardrails. |
A comparison of how leading AI companies are interacting with U.S. Department of Defense classified requirements.




본 콘텐츠는 정보 및 논평을 위한 것이며 투자 자문이 아닙니다.
기사에 대한 반응을 남겨보세요
다른 독자의 코멘트를 보고, 바로 의견을 남길 수 있습니다.