
Photo by 2H Media on Unsplash
Anthropic, AI 모델 개발을 위한 투명성 프레임워크 제안
AI 회사 Anthropic이 월요일에 첨단 AI 모델과 프론티어 AI 시스템을 개발하는 회사를 위한 투명성 프레임워크를 제안했습니다. 이는 지역 또는 국제 수준에서의 적용을 목표로 합니다. 이 스타트업은 AI 투명성을 강화하기 위한 안전조치, 실행 가능한 단계, 그리고 최소한의 표준들을 개요를 제시했습니다.
시간이 촉박하신가요? 여기에 빠른 사실들이 있습니다:
- Anthropic은 첨단 AI 모델과 최첨단 AI 시스템을 개발하는 회사들을 위한 투명성 프레임워크를 제안했습니다.
- 이 기술 회사는 AI 개발의 빠른 속도와 안전한 제품을 개발하기 위해 안전 프레임워크에 대한 합의의 중요성을 인식하고 있습니다.
- 제안된 프레임워크는 산업 내의 대형 회사들을 대상으로 합니다.
Anthropic은 자사 웹사이트의 공지에서 AI 모델 개발이 기업, 정부, 학계의 안전장치 및 협약 구축보다 빠르게 진행되고 있다고 설명했습니다. 이 기술 회사는 모든 이해관계자들에게 AI 제품의 안전한 개발을 보장하기 위한 노력을 가속화할 것을 촉구하였으며, 그들의 투명성 프레임워크를 모델 또는 참고자료로 제공하였습니다.
“매우 강력한 인공지능이 안전하게, 책임 있게, 그리고 투명하게 개발되도록 보장하기 위한 중간 단계가 필요하다”라는 공지에서 이렇게 말합니다. “그래서 우리는 표적을 정한 투명성 프레임워크를 제안하고 있다. 이것은 연방, 주, 또는 국제 수준에서 적용될 수 있으며, 가장 큰 인공지능 시스템과 개발자에게만 적용되면서 안전 관행에 대한 명확한 정보 공개 요구사항을 설정한다.”
Anthropic의 접근 방식은 유연성과 경량화를 유지하기 위해 단순화되었습니다. “인공지능의 혁신을 방해하거나, 인공지능의 이점을 실현하는 능력을 저하시키지 않아야 한다. 이에는 생명을 구하는 약물 발견, 공공 혜택의 신속한 제공, 그리고 국가 보안 기능이 포함된다”라고 회사는 설명했습니다.
해당 기술 회사는 기술이 급속도로 발전함에 따라 엄격한 틀과 표준이 곧바로 낡아버릴 수 있음을 인정했습니다.
Anthropic은 AI 투명성 요구사항이 작은 스타트업과 영향력이 적은 개발자에게 부담을 주지 않기 위해, 큰 프론티어 모델 개발자에게만 적용되어야 한다고 제안합니다. 제안된 기준은 연간 매출 100백만 달러 또는 연간 자본 지출 10억 달러입니다.
대형 개발자들은 또한 자신들이 위험을 어떻게 완화시킬 것인지, 불일치된 모델에 의해 발생하는 피해와 화학, 핵, 생물, 방사능 무기의 창조를 포함하는 대중적인 안전 개발 프레임워크를 만들어야 합니다.
가장 엄격한 제안 중 하나는 내부고발자를 보호하는 것을 목표로 하고 있습니다. “연구소가 프레임워크 준수에 대해 거짓말하는 것을 법으로 명확하게 위반사항으로 규정하자”라고 Anthropic는 공유된 문서에 작성했습니다. 이 회사는 투명성 표준이 최소한의 기준을 포함하고 경량화된 요구사항으로 합의를 도와야 한다는 것을 강조했습니다.
Anthropic은 이 발표와 제안된 투명성 프레임워크가 정부가 법으로 채택하고 “책임있는 실천”을 촉진하는 가이드라인으로 작용할 것으로 기대하고 있습니다.
최신 AI 모델인 Claude 4를 출시한 후, Anthropic은 안전 경고를 포함시켰습니다—이 모델은 잠재적 위험 때문에 Safety Level 3에 해당하는 Opus 4로 라벨링되었습니다.