
Image by Matthew Henry, from Unsplash
구글, AI를 무기 및 감시 기술에 사용하는 금지 해제
알파벳, 구글의 모회사는 AI를 무기나 감시 도구 개발에 사용하지 않겠다는 약속을 철회했습니다.
급하신가요? 여기 빠른 요약이 있습니다!
- Google이 수익 보고서를 발표하기 직전에 AI 윤리 가이드라인을 업데이트하면서, 해를 끼치는 것과 관련된 제한을 제거하였습니다.
- AI 책임자인 데미스 하사비스는 국가 보안과 전세계 AI 경쟁을 주요 요인으로 강조하였습니다.
- 전문가들은 Google의 업데이트된 가이드라인이 더 많은 자율적 무기 개발로 이어질 수 있다고 경고하고 있습니다.
화요일에 예상보다 낮은 실적을 보고하기 직전, 회사는 AI 윤리 지침을 업데이트하여 기술이 해를 끼칠 수 있는 것을 피하는 데 대한 참조를 제거했습니다. 이는 The Guardian에서 보도하였습니다.
구글의 AI 담당 부사장 데미스 하사비스는 세상이 변화하는 가운데, AI가 “국가안보”를 보호하는 데 결정적인 역할을 하는 것으로 인식되고 있어, 이에 맞게 가이드라인이 수정되고 있다고 설명했습니다.
하사비스와 수석 부사장 제임스 만야이카는 블로그 포스트에서, 세계 AI 경쟁이 치열해지는 가운데 회사는 “민주주의가 AI 개발을 이끌어야 한다”고 강조했습니다. 이는 “자유, 평등, 그리고 인권 존중”이라는 원칙에 따라 이루어져야 한다고 말했습니다.
WIRED는 Google이 가이드라인을 소개하는 2018년 블로그 게시물의 상단에 추가한 노트에 AI 원칙에 대한 업데이트를 공유했다고 강조했습니다. “우리는 AI 원칙을 업데이트했습니다. 최신 내용은 AI.Google을 방문하세요.”라는 노트에 적혀있습니다.
알자지라는 Google이 2018년에 미국 국방부의 Project Maven에 대한 회사의 참여에 대한 직원들의 반발에 이어 처음으로 AI 원칙을 도입했다고 보도했습니다. Project Maven은 군사가 드론 공격을 위한 목표를 식별하는 데 도움을 주는 AI의 사용 가능성을 탐구했습니다.
직원들의 사직과 수천 건의 청원이 이어진 반발에 대응하여, 구글은 펜타곤과의 계약을 갱신하지 않기로 결정했습니다. 그해 말, 구글은 또한 펜타곤과의 100억 달러 규모의 클라우드 컴퓨팅 계약 경쟁에서도 물러나기로 했는데, 이는 이 프로젝트가 자체 AI 원칙과 맞지 않을 수 있다는 우려 때문이었다고 알자지라가 보도하였습니다.
또한, 구글의 윤리 정책 업데이트는 Alphabet Inc.의 CEO인 순다르 피차이가 아마존의 제프 베조스, 메타의 마크 주커버그와 같은 기술 산업의 리더들과 함께 1월 20일 미국 대통령 도널드 트럼프의 취임식에 참석한 이후에 이루어졌습니다.
그러나 화요일의 발표에서 구글은 AI 약속을 수정하였습니다. 업데이트된 웹페이지에서는 이제 AI 프로젝트에 대한 특정 금지사항을 더 이상 나열하지 않고, 회사에 민감한 애플리케이션을 탐색할 수 있는 더 많은 유연성을 제공합니다.
수정된 문서는 이제 구글이 “사용자 목표, 사회적 책임, 국제법과 인권에 대한 널리 받아들여진 원칙에 부합하도록 적절한 인간 감독, 신중성, 피드백 메커니즘을 유지”할 것이라고 강조합니다. 또한, 회사는 “의도하지 않은 또는 해로운 결과를 완화”할 의도를 밝혔습니다.
그러나 전문가들은 AI가 곧 전장에서 널리 활용될 수 있다고 경고하면서, 특히 자율 무기 시스템과 관련하여 그 사용에 대한 우려가 높아지고 있다.
“글로벌 산업 리더가 스스로 설정한 붉은 선을 포기하는 것은, 우리가 AI에 대한 책임 있는 리더십을 더욱 필요로 하는 이 시점에서 우려스러운 변화를 나타낸다”라고 인권시민단체 ‘휴먼라이츠 워치’의 선임 AI 연구원인 안나 바치아렐리가 BBC에 보도하였다.
바치아렐리는 또한 “일방적인” 결정이 “자발적 원칙이 규제와 구속력 있는 법에 대한 적절한 대안이 아님을” 강조한다고 지적했습니다.