많은 조직이 특히 데이터 품질과 관련하여 새로운 취약점과 약점을 발견하고 있습니다.
호주에서 인공지능(AI)에 대한 관심이 높아지고 있음에도 불구하고 기업들은 이 기술의 약점, 특히 데이터 정확성에 대해 점점 더 우려하고 있습니다.
구글이 7월 23일에 발표한 새로운 AI 동향 보고서는 수백 명의 기업 및 IT 리더를 대상으로 생성적 AI를 활용하기 위한 목표와 전략에 대한 설문 조사를 실시했습니다.
조사 결과, 응답자의 절반 미만(44%)만이 조직의 데이터 품질에 전적으로 확신을 갖고 있었고, 11%는 더욱 낮은 확신을 표명했습니다.
게다가 응답자의 절반 이상(54%)이 자신의 조직이 데이터 거버넌스 측면에서 다소 성숙하다고 생각하고 있으며, 이 분야에서 자신의 조직이 매우 성숙하거나 매우 성숙하다고 생각하는 사람은 27%에 불과합니다.
한편, 직원의 3분의 2(69%) 이상이 지난 12개월 동안 조직의 사이버보안 지침을 위반했다고 보고했습니다.
5월에는 AI에 대한 검색 관심이 역대 최고치를 기록했으며, 4월~6월 기간 동안 올해 1분기 대비 20% 증가했습니다.
많은 조직이 특히 데이터 품질과 관련하여 새로운 취약점과 약점을 발견하고 있습니다.
보고서는 대규모 언어 모델(LLM)을 데이터에 적용하는 것만으로는 “충분하지 않다”고 강조했습니다. 이러한 모델은 “양질의 기업 데이터에 기반해야 하며 그렇지 않으면 환각에 걸릴 위험이 있습니다.”
AI 챗봇을 구동하는 LLM은 방대한 양의 텍스트 데이터를 처리하여 인간의 언어를 이해하고 생성할 수 있는 기계 학습 모델입니다.
AI 환각은 LLM이 잘못된 정보나 오해의 소지가 있는 정보를 만들어내지만 이를 사실인 것처럼 제시할 때 발생합니다.
‘환각으로 가득하다’
미국의 AI 전문가인 수잔 아론슨도 비슷한 우려를 표명했습니다. 그녀는 AI가 생산한 데이터 세트가 “전반적으로 정확하지 않다”고 말했습니다.
7월 9일 미국 연구 센터가 주최한 행사에서 조지 워싱턴 대학의 국제 관계 연구 교수인 애런슨 여사는 AI가 “환각으로 가득 차 있기 때문에” 그 혜택에 대해 회의적이라고 표현했습니다.
“위험 기반 시스템입니다.” 그녀가 말했다. “미국에는 AI가 오용될 수 있다고 명시한 연방법이 없습니다. 사람들이 오용할 것입니다.”
“내가 모델을 만든다면, 그것이 신뢰할 수 있는지 확인하기 위해 노력할 것입니다… 하지만 지금 문제는 이것들이 신뢰할 수 없다는 것입니다.”
그녀는 네덜란드의 육아 혜택 스캔들을 예로 들었습니다. 2005년부터 2019년까지 세무 당국은 자체 학습 알고리즘을 사용하여 혜택 사기의 징후를 감지했으며, 이를 당국에서 사용하여 오류를 제거할 수 있습니다.
그러나 이 알고리즘은 편향성을 갖기 시작했고, 대부분이 저소득층, 이민자, 소수 민족인 약 26,000명의 부모를 사기적 혜택 청구자로 잘못 고발했습니다.
이로 인해 수만 가구가 재정적으로 어려움을 겪었고, 어떤 사람들은 세금 청구서에 대한 압력으로 자살하기도 했습니다.
최근 상원 조사에서도 이러한 우려가 반영되었으며, 언론 매체, 성우, 변호사들이 AI 사용에 대한 지침과 제한을 요구했습니다.
Adobe Asia Pacific 공공 부문 전략 책임자 John Mackenney는 “고객과 크리에이티브 커뮤니티에서 가장 큰 우려 중 하나는 이미지, 모습, 음성 및 예술적 스타일의 부당 사용에 관한 것입니다.”라고 말했습니다.
이 조사는 9월에 결과를 제시할 예정이며, 호주의 국가 AI 전문가 자문 그룹은 고위험 AI 배포에 대한 의무적 규정 도입을 평가하고 있습니다.