실시간 뉴스



속도냐 안전이냐…오픈AI의 '위험한 질주' [AI 브리핑]


'준비 프레임워크' 정책 수정…경쟁사 따라 안전기준 조정
6개월→1주일→며칠…점점 줄어드는 안정성 테스트 기간

[아이뉴스24 윤소진 기자] 글로벌 AI 패권경쟁의 선두주자인 오픈AI가 잇따른 최신 모델 발표와 신사업 추진 등 시장 선점에 박차를 가하고 있다. 그러나 일각에선 안전성 검증이 충분하지 않다는 우려의 목소리가 나온다. 경쟁사와의 속도전이 오히려 AI 안전 기준을 후퇴시키고 있다는 지적이다.

샘 올트먼 오픈AI 최고경영자(CEO). [사진=정소희 기자]
샘 올트먼 오픈AI 최고경영자(CEO). [사진=정소희 기자]

20일 테크크런치, 비즈니스인사이더 등 외신 보도에 따르면 오픈AI는 최근 사내 '준비 프레임워크' 정책을 수정해 고위험 AI 시스템이라 하더라도 경쟁사 대비 출시 속도를 조정할 수 있도록 했다.

이 프레임워크는 AI 모델이 위험한 행동을 할 가능성이 있는지를 사전에 평가하고 필요하면 개발 단계부터 어떤 안전장치를 적용할지를 결정하는 일종의 내부 기준표다.

주목할 것은 '경쟁사가 먼저 고위험 AI를 출시했는데 별다른 안전장치를 쓰지 않았다면 우리도 안전 기준을 일부 조정할 수 있다’는 내용이다. 경쟁사가 규칙을 무시하고 먼저 출시하면 오픈AI도 그만큼 속도를 낼 수 있도록 기준을 유연하게 바꾸겠다는 뜻이다.

오픈AI는 "이런 조정이 무책임하게 이뤄지지는 않을 것"이라고 설명했다. 위험이 커지지 않도록 철저히 검토하고 여전히 ‘더 보호적인 수준’의 안전장치는 유지하겠다는 것이다.

그러나 전문가들은 오픈AI의 '속도 중심 전략'이 AI의 사회적 신뢰를 훼손할 수 있다고 경고한다. 모델 출시 전 수개월에 걸쳐 진행되던 내부 안전성 테스트가 최근에는 며칠 내로 단축되고 있다는 점이 우려를 키우는 것이다.

파이낸셜타임스(FT)의 보도에서 오픈AI 내부 관계자는 "GPT-4는 6개월, GPT-4 Omni는 1주일, 또 다른 최신 모델은 며칠 만에 테스트가 이뤄졌다"며 "우리가 덜 중요한 시기에는 더 철저하게 테스트했다"고 설명했다. 그는 이러한 프로세스를 '재앙의 조합'이라고 표현했다.

안전성 논란은 여기서 그치지 않는다. 외신은 "4월 출시된 GPT-4.1 등 일부 신모델은 기존에 필수적으로 공개하던 안전성 보고서(시스템 카드) 없이 출시됐다"고 지적했다. 오픈AI는 이에 대해 "GPT-4.1은 '프런티어 모델'이 아니기 때문"이라고 설명했으나, 업계에서는 "핵심 안전성 약속에서 후퇴하고 있다"는 비판이 이어지고 있다.

지난주 일론 머스크가 오픈AI에 제기한 소송에서 12명의 전직 오픈AI 직원들이 의견서를 제출했다. 이들은 “최종 출시 모델이 아닌, 중간 단계 모델로만 테스트를 진행하는 것은 위험하다”며 “치명적 위험을 평가하지 않고 넘어갈 수 있다”고 경고했다. 실제 GPT-4의 경우도 출시 후 수개월이 지나서야 위험성이 추가로 발견된 바 있어 속도전이 공공 안전을 위협할 가능성이 커지고 있다.

앞서 오픈AI는 지난 14일(현지시간) 기존 모델 대비 코딩, 지시 따르기, 긴 맥락 이해 등에서 성능이 향상된 GPT-4.1을 출시했다. 이틀 뒤에는 최신 추론 모델 o3와 경량화 버전인 o4-mini를 공개했다. 같은 날 오픈소스 코딩 에이전트 ‘Codex CLI’도 선보였다.

/윤소진 기자(sojin@inews24.com)




주요뉴스



alert

댓글 쓰기 제목 속도냐 안전이냐…오픈AI의 '위험한 질주' [AI 브리핑]

댓글-

첫 번째 댓글을 작성해 보세요.

로딩중

뉴스톡톡 인기 댓글을 확인해보세요.



포토뉴스