샌프란시스코 — 작년 초 해커가 ChatGPT를 만든 OpenAI의 내부 메시징 시스템에 침입하여 해당 회사의 인공지능 기술 설계에 대한 세부 정보를 훔쳤습니다.
사건에 대해 잘 아는 두 사람에 따르면, 해커는 직원들이 OpenAI의 최신 기술에 대해 논의한 온라인 포럼에서 나온 논의 내용을 빼냈지만, 회사가 AI를 보관하고 구축하는 시스템에는 들어가지 않았다고 합니다.
두 사람에 따르면, OpenAI 임원진은 2023년 4월 샌프란시스코 사무실에서 열린 전체 회의에서 직원들에게 이 사건을 공개했고, 이사회에도 이 사실을 알렸다고 한다. 이들은 익명을 조건으로 회사의 민감한 정보를 논의했다.
하지만 임원진은 고객이나 파트너에 대한 정보가 도난당하지 않았기 때문에 이 소식을 공개적으로 공유하지 않기로 결정했다고 두 사람은 말했습니다. 임원진은 해커가 외국 정부와 알려진 관계가 없는 개인이라고 믿었기 때문에 이 사건을 국가 안보에 대한 위협으로 여기지 않았습니다. 이 회사는 FBI나 법 집행 기관의 다른 누구에게도 알리지 않았습니다.
일부 OpenAI 직원들에게 이 소식은 중국과 같은 외국의 적대 세력이 AI 기술을 훔칠 수 있다는 두려움을 불러일으켰습니다. 현재는 대부분 업무 및 연구 도구이지만 결국 미국 국가 안보를 위협할 수 있습니다. 또한 OpenAI가 보안을 얼마나 심각하게 대하는지에 대한 의문이 제기되었고, AI의 위험에 대한 회사 내부의 갈등이 드러났습니다.
침해 사건 이후, OpenAI의 기술 프로그램 관리자이자 미래의 AI 기술이 심각한 피해를 입히지 않도록 하는 데 주력하던 레오폴드 아센브레너는 OpenAI 이사회에 메모를 보내 회사가 중국 정부와 다른 외국의 적대 세력이 회사 기밀을 훔치는 것을 막기 위해 충분한 조치를 취하지 않고 있다고 주장했습니다.
Aschenbrenner는 OpenAI가 이번 봄에 회사 외부에 다른 정보를 유출했다는 이유로 그를 해고했으며, 그의 해고는 정치적 동기에 의한 것이라고 주장했다. 그는 최근 팟캐스트에서 침해에 대해 언급했지만, 사건에 대한 세부 사항은 이전에 보고되지 않았다. 그는 OpenAI의 보안이 외국 세력이 회사에 침투할 경우 주요 비밀을 훔치는 것을 막을 만큼 강력하지 않다고 말했다.
OpenAI 대변인 리즈 부르주아는 “우리는 레오폴드가 OpenAI에 있을 때 제기한 우려에 감사하며, 이것이 그의 이탈로 이어지지 않았습니다.”라고 말했습니다. 그녀는 인간의 뇌가 할 수 있는 모든 것을 할 수 있는 기계인 인공 일반 지능을 구축하려는 회사의 노력을 언급하면서 “우리는 안전한 AGI를 구축하려는 그의 헌신을 공유하지만, 그가 그 이후로 우리 작업에 대해 한 많은 주장에 동의하지 않습니다. 여기에는 그가 회사에 합류하기 전에 우리가 다루고 이사회와 공유했던 이 사건을 포함한 보안에 대한 그의 특징이 포함됩니다.”라고 덧붙였습니다.
미국 기술 회사에 대한 해킹이 중국과 관련이 있을 수 있다는 우려는 비합리적이지 않습니다. 지난달, Microsoft의 사장인 Brad Smith는 Capitol Hill에서 중국 해커들이 이 기술 거대 기업의 시스템을 사용하여 연방 정부 네트워크에 광범위한 공격을 가한 방법에 대해 증언했습니다.
그러나 연방법과 캘리포니아 법에 따라 OpenAI는 사람들이 국적을 이유로 회사에서 일하는 것을 막을 수 없으며, 정책 연구자들은 미국의 프로젝트에서 외국 인재를 차단하는 것은 미국 내 AI 발전을 심각하게 방해할 수 있다고 말했습니다.
OpenAI의 보안 책임자인 맷 나이트는 The New York Times와의 인터뷰에서 “이 기술을 연구하는 가장 뛰어나고 뛰어난 인재가 필요합니다.”라고 말했습니다. “이 기술에는 몇 가지 위험이 따르며, 우리는 그것을 알아내야 합니다.”
OpenAI는 빠르게 발전하는 AI 기술을 사용하여 점점 더 강력해지는 시스템을 구축하는 유일한 회사가 아닙니다. 그중 일부(특히 Facebook과 Instagram의 소유주인 Meta)는 오픈 소스 소프트웨어로 전 세계와 디자인을 자유롭게 공유하고 있습니다. 그들은 오늘날의 AI 기술이 초래하는 위험은 적고 코드를 공유하면 업계 전반의 엔지니어와 연구원이 문제를 식별하고 해결할 수 있다고 믿습니다.
오늘날의 AI 시스템은 텍스트, 정지 이미지, 그리고 점점 더 많은 비디오를 포함하여 온라인에서 허위 정보를 퍼뜨리는 데 도움이 될 수 있습니다. 또한 일부 일자리를 빼앗기 시작했습니다.
OpenAI와 경쟁사인 Anthropic, Google 등의 기업은 개인이나 기업에 AI 애플리케이션을 제공하기 전에 보안 장치를 추가해 사람들이 앱을 악용해 허위 정보를 퍼뜨리거나 다른 문제를 일으키는 것을 막고자 합니다.
하지만 오늘날의 AI 기술이 중대한 국가 안보 위험이라는 증거는 많지 않습니다. OpenAI, Anthropic 등이 작년에 실시한 연구에 따르면 AI는 검색 엔진보다 훨씬 더 위험하지 않은 것으로 나타났습니다. Anthropic의 공동 창립자이자 회사 사장인 다니엘라 아모데이는 최신 AI 기술이 설계가 도난되거나 다른 사람과 자유롭게 공유되더라도 큰 위험이 되지 않을 것이라고 말했습니다.
“다른 사람이 소유했다면, 사회에 엄청난 해를 끼칠 수 있을까요? 우리의 답은 ‘아니요, 아마 그렇지 않을 겁니다’입니다.” 그녀는 지난달 타임스에 이렇게 말했습니다. “나중에 나쁜 행위자에게 무언가를 가속화할 수 있을까요? 그럴 수도 있습니다. 정말 추측에 불과합니다.”
그럼에도 불구하고, 연구자와 기술 임원들은 AI가 언젠가 새로운 생물학 무기를 만들거나 정부 컴퓨터 시스템을 침입하는 데 도움이 될 수 있다고 오랫동안 우려해 왔습니다. 어떤 사람들은 그것이 인류를 파괴할 수도 있다고 믿기도 합니다.
OpenAI와 Anthropic을 포함한 여러 회사가 이미 기술 운영을 잠그고 있습니다. OpenAI는 최근 미래 기술로 인한 위험을 어떻게 처리해야 할지 알아보기 위해 안전 및 보안 위원회를 만들었습니다. 위원회에는 국가 안보국과 사이버 사령부를 이끈 전 육군 장군인 폴 나카소네가 포함됩니다. 그는 또한 OpenAI 이사회에 임명되었습니다.
Knight는 “우리는 ChatGPT보다 몇 년 전부터 보안에 투자하기 시작했습니다.”라고 말했습니다. “우리는 위험을 이해하고 앞서 나가는 것뿐만 아니라 회복력을 강화하기 위한 여정을 하고 있습니다.”
연방 관리들과 주 의원들도 특정 AI 기술을 출시하는 것을 금지하고, 기술이 해를 끼칠 경우 수백만 달러의 벌금을 부과하는 정부 규제를 추진하고 있습니다. 하지만 전문가들은 이러한 위험은 아직 수년 또는 수십 년 후에야 올 것이라고 말합니다.
중국 기업들은 선도적인 미국 시스템만큼이나 강력한 자체 시스템을 구축하고 있습니다. 일부 지표에 따르면 중국은 AI 인재의 최대 생산국으로서 미국을 앞지르며, 세계 최고 AI 연구자의 거의 절반을 배출했습니다.
“중국이 곧 미국을 앞지르리라는 생각은 미친 짓이 아니다”라고 전 세계의 오픈소스 AI 프로젝트를 많이 주최하는 회사인 Hugging Face의 CEO 클레망 델랑그가 말했다.
일부 연구자와 국가 안보 책임자는 현재 AI 시스템의 핵심인 수학적 알고리즘이 현재는 위험하지 않지만 나중에 위험해질 수 있다고 주장하며 AI 연구실에 대한 통제를 더욱 강화할 것을 요구하고 있습니다.
“최악의 시나리오가 비교적 확률이 낮더라도 큰 영향을 미칠 경우, 우리는 이를 심각하게 받아들일 책임이 있습니다.” 조 바이든 대통령의 전 내무부 정책 고문이자 버락 오바마 대통령의 전 국가 안보 고문인 수잔 라이스는 지난달 실리콘 밸리에서 열린 행사에서 이렇게 말했습니다. “많은 사람들이 주장하듯이 공상과학이라고 생각하지 않습니다.”
본 기사는 원래 뉴욕 타임스에 게재되었습니다.
Economy Now 뉴스레터에 가입하면 더 많은 비즈니스 뉴스를 받아볼 수 있습니다.