두 회사는 미국 연방 기관인 국립표준기술원(NIST) 산하 기관인 미국 AI 안전 연구소(USAISafety Institute)와 협력할 예정입니다. 이는 OpenAI의 ChatGPT 출시 이후 주요 관심사였던 AI 기술 관리 및 감독에 있어 중요한 진전으로 여겨집니다.
미국 AI 안전 연구소 소장인 엘리자베스 켈리는 "이것은 시작일 뿐이지만 AI의 미래를 책임감 있게 관리하려는 노력에 있어 중요한 이정표입니다."라고 말했습니다.
이 협정에 따라 미국 AI 안전 연구소는 모델 공개 전과 후에 양사에 잠재적인 안전 개선 사항에 대한 피드백을 제공할 예정입니다. 또한, 이 과정에서 영국 AI 안전 연구소와도 긴밀히 협력할 예정입니다.
"미국 AI 안전 연구소와의 파트너십은 광범위한 배포 전에 해당 연구소의 광범위한 전문 지식을 활용하여 모델을 엄격하게 테스트할 수 있도록 지원합니다. 이를 통해 위험을 식별하고 완화하는 역량을 강화하여 책임감 있는 AI 개발을 촉진할 수 있습니다."라고 Anthropic의 공동 창립자이자 정책 책임자인 잭 클라크는 말했습니다.
이러한 조치는 2023년에 발표될 백악관 AI 행정명령을 이행하기 위한 노력의 일환입니다. 이 행정명령은 미국에서 AI 모델을 신속하게 배포할 수 있는 법적 틀을 마련하는 것을 목표로 합니다.
연방 정부가 자발적 접근 방식을 추구하는 반면, 미국의 기술 중심지인 캘리포니아 주의회는 8월 28일 주 차원의 AI 안전 법안을 통과시켰습니다. 이 법안에 주지사가 서명하면 AI 산업에 더 엄격한 규제가 부과됩니다.
OpenAI의 CEO인 샘 알트먼은 주 정부 차원보다는 국가 차원에서 AI를 규제해야 한다고 주장하며, 이를 통해 AI 분야의 연구와 혁신이 저해될 위험을 피할 수 있을 것이라고 주장했습니다.
선도적인 기술 기업과 미국 정부의 이러한 움직임은 빠르게 진화하는 AI 분야에서 혁신과 안전의 균형을 이루려는 추세를 보여줍니다.
[광고_2]
출처: https://nhandan.vn/openai-va-anthropic-chia-se-moi-nhat-ai-voi-chinh-phu-my-post827601.html
댓글 (0)