▶ 네카오·이통사 전담조직 운영
▶ 구글, 위험 견제 개발방식 도입
‘인공지능(AI) 서울 정상회의’를 계기로 각국 정부의 AI 규제가 본격화할 것으로 전망되는 가운데 국내외 테크 기업들이 자구책 마련에 부심하고 있다. 혐오와 편견 학습, 가짜뉴스 생산과 환각, 저작권과 개인정보 침해, 딥페이크 등 부작용이나 악용 우려에 맞서 ‘안전한 AI’를 개발하자는 주요국 간 합의가 이뤄진 가운데 기업들도 관련 규제에 대응하면서 기술 개발과 시장 선점을 꾀해야 하기 때문이다.
21일 업계에 따르면 최근 KT는 사상 첫 AI 거버넌스(의사결정 체계) 전담 인력 채용에 들어갔다. AI 기술의 안전성을 평가·관리하고 관련 정책을 수립하는 등 기존 KT경제경영연구소나 연구개발(R&D) 조직이 겸했던 업무를 전문화하겠다는 것이다. KT는 해당 인력을 편입해 최근 신설한 AI 거버넌스 조직 ‘책임감 있는 AI 센터(RAIC)’를 본격적으로 운영한다.
네이버는 올 들어 최고경영자 직속으로 ‘퓨처AI센터’를 신설했고 카카오도 최고AI책임자(CAIO)를 임명했다. SK텔레콤도 ‘AI 거버넌스 태스크포스(TF)’를 운영하고 있다.
글로벌 빅테크들도 AI 안전성 확보 노력을 한층 강화하고 있다. 구글 AI 사업의 중추인 딥마인드는 17일 미래의 AI 위협을 미리 감지하고 적절히 대응할 수 있는 ‘프런티어 안전 프레임워크(개발 방식)’를 공개했다. 자율성·생체보안·사이버보안·기계학습 등 AI 위협에 특히 민감한 4개 분야를 중심으로 위험 수준을 평가하고 기술이 일정 수준을 넘지 않도록 조절하는 개발 방식을 내년 초까지 도입할 방침이다.
앤트로픽도 20일 4단계의 ‘AI 안전 수준(ASL)’을 정하고 관리하는 프레임워크를 고도화해 조만간 공개한다고 밝혔으며 이와 관련한 ‘위험 관리자’ 인력을 모집하고 있다. 같은 날 메타와 아마존은 AI 안전성 확보에 협력하는 만든 빅테크 비영리단체 ‘프런티어모델포럼’에 가입했다.
<
김윤수 기자>
댓글 안에 당신의 성숙함도 담아 주세요.
'오늘의 한마디'는 기사에 대하여 자신의 생각을 말하고 남의 생각을 들으며 서로 다양한 의견을 나누는 공간입니다. 그러나 간혹 불건전한 내용을 올리시는 분들이 계셔서 건전한 인터넷문화 정착을 위해 아래와 같은 운영원칙을 적용합니다.
자체 모니터링을 통해 아래에 해당하는 내용이 포함된 댓글이 발견되면 예고없이 삭제 조치를 하겠습니다.
불건전한 댓글을 올리거나, 이름에 비속어 및 상대방의 불쾌감을 주는 단어를 사용, 유명인 또는 특정 일반인을 사칭하는 경우 이용에 대한 차단 제재를 받을 수 있습니다. 차단될 경우, 일주일간 댓글을 달수 없게 됩니다.
명예훼손, 개인정보 유출, 욕설 등 법률에 위반되는 댓글은 관계 법령에 의거 민형사상 처벌을 받을 수 있으니 이용에 주의를 부탁드립니다.
Close
x