티스토리 뷰
AI가 인간의 언어를 생성하고 이해하는 능력이 발전하면서, AI를 이용한 부정행위가 사회적 문제로 대두되고 있다. 특히, 오픈AI가 개발한 챗GPT는 연구 논문이나 과제용 에세이를 작성할 수 있는 강력한 언어 생성 모델로, 학생들이나 연구자들이 쉽게 접근할 수 있다. 그러나 오픈AI는 챗GPT가 생성한 콘텐츠를 정확하게 식별할 수 있는 기술을 이미 개발했음에도 불구하고, 이를 공개하지 않고 있다고 한다.
이 기술은 어떤 원리로 작동하고, 왜 공개하지 않는 것일까?
워터마크로 챗GPT가 생성한 텍스트 토큰을 표시
오픈AI가 개발한 챗GPT 감지 기술은 챗GPT가 생성한 텍스트 토큰에 눈에 보이지 않는 워터마크 패턴을 표시하는 방식으로 작동한다. 이 워터마크는 별도의 감지 도구를 통해 전체 문서 또는 일부가 챗GPT에 의해 작성됐을 가능성이 얼마인지에 대한 점수를 제공한다. 이 기술은 99.9%의 정확도로 챗GPT가 생성한 콘텐츠를 식별할 수 있다고 한다. 이 기술은 1년 전부터 당장에라도 출시 버튼을 누르면 되는 상태로 알려졌다.
챗GPT 사용자 감소 우려와 공정성 문제로 공개를 미루는 오픈AI
그렇다면 오픈AI는 왜 이 기술을 공개하지 않는 것일까? 오픈AI는 이 보도가 나간 이후 공식 홈페이지에 관련 사실을 공개했다. 이 기술을 아직 공개하지 않은 데 대해서는 "영어를 모국어로 사용하지 않는 다른 언어 사용자에게 불리하게 작용할 수 있다"라는 점과 "누군가 이 기술을 악용해 특정 사람이나 그룹을 공격할 수도 있다"라는 점 등을 이유로 들었다.
또 워터마크가 간단한 기술로 지워질 수 있다는 우려도 제기했다. 또한 오픈AI는 사용자를 대상으로 설문조사를 실시한 결과, 챗GPT 고정 사용자 중 3분의 1이 부정행위 감지 기술 도입 시 챗GPT를 사용하지 않을 것으로 답했다. 이는 챗GPT의 사용자 수와 수익에 영향을 줄 수 있다는 점을 반영한 것으로 보인다.
학교 등에서는 기술 공개를 원하는 목소리도
그러나 학교 등에서는 학생들의 AI 부정행위를 막기 위해 기술 공개를 원하는 목소리도 있다. 민주주의기술센터라는 단체의 최근 조사에 따르면 학생들이 AI를 이용해 과제를 했다고 생각하는 미국 중·고등학교 교사는 1년 전보다 17%늘어난 59%에 달한다. 샘 알트먼 오픈AI CEO 역시 이 기술에 대한 의견을 밝혔다는 후문이다. 그는 프로젝트 자체는 장려했지만, 공개 방안을 추진하지는 않은 것으로 알려졌다.
AI 부정행위 감지 기술의 공개 여부는 어떻게 결정될까?
AI 부정행위 감지 기술의 공개 여부는 오픈AI의 내부 논의와 사회적 요구에 따라 결정될 것이다. AI가 인간의 언어를 생성하는 능력이 발전함에 따라, AI의 책임과 윤리에 대한 논의도 필요하다. AI가 생성한 콘텐츠의 출처와 신뢰성을 확인하고, AI를 올바르게 사용하고 활용하는 방법을 찾아야 할 것이다.