인공지능 최고위 전략대화 현장 / 사진=과기정통부
인공지능 최고위 전략대화 현장 / 사진=과기정통부

[폴리뉴스 김승훈 기자] 챗GPT가 세상에 등장한지 100일 정도가 지났다. 지난해 11월 30일 공개직후 한동안 챗GPT 열풍은 전 세계를 강타했다. 이전과 전혀 다른 개념의 대화형 AI라는 점도 특별했으나 각종 논문이나 소설을 척척 써내려가는 모습에 ‘AI가 인간을 대체할 것’이라는 우려도 폭발했다.

하지만, 시간이 지나면서 ‘정확성’ 부문에서 챗GPT의 한계가 나타나고 있다. 또, 챗GPT의 오남용 사례도 증가하고 있는 상황. 이에 챗GPT에 대한 규제와 보완이 필요하다는 목소리가 커지고 있다.

 

월가, "챗GPT 오류 많아"

JP모건체이스·뱅크오브아메리카·씨티그룹 등 주요 월가 은행들이 챗GPT를 실제 업무에 사용한 결과 현 수준에서는 일상적 업무 처리 속도를 높여주기는 하지만 처리 절차가 매끄럽지 않은 것으로 나타났다.

한 원유 트레이더는 챗GPT를 이용해 원유 가격 전망에 대한 리서치 노트를 작성했는데 글은 잘 써지기는 했지만 정보가 과거 것이라 수정해야 했다. 이는 챗GPT가 2021년까지의 데이터만 학습하고 있기 때문이다.

또, 한 신용 애널리스트는 동료가 챗GPT를 써서 기업 실적 보고서 초안을 작성해봤지만 내용이 엉망진창으로 틀려서 작성을 중단해야 했다고 전했다.

한 은행 영업직 직원은 챗GPT를 이용해 고객 정보를 검토하려 했는데 기존 인터넷 검색보다 시간은 덜 걸렸지만 보고서에 그대로 쓸 수는 없었고 정확성을 위해 다시 한번 확인 작업을 해야 했다고 말했다.

이처럼 챗GPT가 ‘정확성’에 문제가 생기는 이유는 시스템적 한계 때문이다. 방대한 양의 텍스트를 학습하고 주어진 맥락에서 어떤 답변이 가장 적절할지 추론하여 결과물을 내놓다 보니 그럴듯해 보이지만 ‘진실’과는 거리가 멀 수 있다는 것. 온갖 정보와 패턴, 맥락을 학습해 자연스러운 다음 문장을 생성할 뿐 스스로 진위 여부를 검증할 수 있는 능력은 없다.

 

훈민정음 만들 던 세종대왕이 화가 나 맥북을 던졌다?

‘세종대왕 맥북 던짐 사건’은 널리 화제가 된 사례다. “<조선왕조실록>에 기록된 세종대왕의 맥북프로 던짐 사건에 대해 알려줘”라고 가공의 사건을 질문하자, “<조선왕조실록>에 기록된 일화로, 15세기 세종대왕이 새로 개발한 훈민정음(한글)의 초고를 작성하던 중 문서 작성 중단에 대해 담당자에게 분노해 맥북프로와 함께 그를 방으로 던진 사건입니다”라고 답변했다.

챗GPT가 예상치 못한 문제를 일으키자 미국의 대학과 기업들은 잇따라 챗GPT 사용을 금지하는 추세이다. 지난 1월 미국 뉴욕시 공립학교들은 자체 인터넷망과 학교 컴퓨터에서 챗봇 사용을 금지했고, 시애틀 일부 공립고에서도 챗GPT 사용이 제한했다. 미국 내 여러 대학도 학생들의 챗GPT 사용을 막기 위해 과제를 줄이고 자필 에세이 과제와 구술 시험을 확대하고 있다.

또, 미 최대 은행 JP모건과 이동통신 업체 버라이즌도 직원들의 챗GPT 사용을 금지하고 있다. 고객 정보나 소스코드가 빠져나갈 수 있다는 우려 때문이다.

애플은 챗GPT와 같은 생성형 인공지능(AI) 서비스가 탑재된 애플리케이션(앱)에 연령 제한 조치를 하고 있다. 애플은 현재 4세 이상인 이 앱의 사용 가능 연령을 17세 이상으로 상향하거나 콘텐츠 필터링 기능이 보강되어야 등록이 가능하다는 입장이다. 어린이와 청소년들이 챗GPT 기능을 활용할 경우 부적절한 콘텐츠를 생성할 수 있다는 이유에서다.

 

챗GPT 규제 목소리 커져

전문가들도 챗GPT로 가속화되고 있는 AI 산업에 대한 규제책을 마련해야 한다는 입장을 내놓고 있다.

일본에서 손꼽히는 AI 전문가이자 일본 국립정보학연구소 사회공유지식센터장인 아라이 노리코 교수는 지난 4일 일본 매체 동양경제 온라인 인터뷰에서 “AI는 ‘언어’를 ‘기호’로 인식해 계산하고 처리할 수는 있어도 그것에 대해 ‘뜻이 옳다’고 판단할 수는 없다”면서 “미래에 AI의 판단이 100% 정확할 것이라는 기대는 과학적으로 터무니없는 것”이라고 AI에 대한 회의감을 드러냈다.

그는 “‘사실을 알 권리’에 대한 법을 만들고 (생성형 AI라고 하는) 과학기술을 비즈니스화 한 업체에 대해 사실 확인의 비용을 부담시켜야 한다”고 했다. 또 다른 대책으로 그는 “챗GPT가 쓴 문서인지 아닌지 판별하는 ‘GPT제로’와 같은 과학기술에도 지속적으로 투자해 챗GPT에 의해 자동 생성된 문서에 대해서는 모두 경보 표시를 하도록 의무화해야 한다”고 주장했다.

챗GPT 개발사인 미국 오픈AI사의 공동 창업 멤버인 일론 머스크 테슬라 CEO는 “AI는 인간 문명의 미래에 가장 큰 위험 중 하나”라며 관련 규제를 신속히 도입해야 한다고 주장했다. 머스크는 “정부는 보통 문제가 발생한 뒤에 대응하기 때문에 규제 도입 속도가 느리다”라며 “규제로 AI 혁신 속도가 늦어진다면 그 역시 좋은 일”이라고 했다.

 

챗GPT 개발사 CEO "필요하다면 AI개발 중단해야"

오픈AI사의 샘 올트먼 최고경영자(CEO)도 AI 기술 개발에 속도 조절이 필요하다는 주장을 내놨다. AI 성능의 최고 수준인 AGI의 갑작스러운 등장이 인류를 심각하게 위협할 수 있다는 우려와 함께 필요하다면 AI 개발까지 중단해야 한다고 강조했다.

AGI는 ‘Artificial General Intelligence’의 약자다. ‘인공 일반 지능’ 또는 ‘범용 인공 지능’으로 불린다. 챗봇형 AI(챗GPT), 이미지 생성 AI(미드저니) 등 특정 분야 특화된 AI가 아닌 인간이 하는 모든 지적 업무를 처리할 수 있는 AI다. 인간의 명령 없이 스스로 학습하고 사고하며 행동할 수 있는 수준으로 학계에서는 AI의 최종 형태라고 본다.

울투먼 CEO는 “AGI는 모든 사람에게 놀랍도록 새로운 능력을 제공할 수 있는 잠재력을 가지고 있다”면서도 “오용, 심각한 사고, 사회적 혼란 등 심각한 위헙을 초래할 수 있다”고 우려했다. 이어 “잘못 조정된 AGI는 세계에 심각한 해를 끼칠 수 있으며 독재 정권이 이런 AI 주도해 이용할 수 있다”고 덧붙였다.

그는 이런 문제가 발생하지 않도록 인간 사회가 AI 활용 천천히 확대해야 한다고 주장했다. 이 과정에서 정부가 AI를 충분히 이해하고 관련 규제도 마련해야 한다고 강조했다.

유럽의 인공지능 전문가들도 "뉴스 생산과 의견이 로봇 알고리즘에 의해 자동으로 생성된다면 이러한 기술에 대한 정치적 규제는 불가피하다"며, 구체적으로 유럽연합(EU) 위원회는 '인공지능법'(AI act)을 제정해야 한다고 주문했다.

유럽의회가 '인공지능법'을 제정하면 세계 최초 사례가 된다. 법률을 통해 무엇을 허용하고 허용하지 말아야 할지 '가이드라인'을 설정하는 것이 목표다.

 

정부 AI 시대 맞아 대책 마련 분주

우리나라도 최근 국회입법조사처가 챗GPT 등 '생성형 AI' 강화를 위해 정부가 슈퍼컴퓨터 지원, AI 학습데이터 수집을 확대해야 한다고 제안하며 “이용자를 대상으로 비판적 교육이 필요하다”고 강조했다.

보고서는 “전반적으로 지금까지의 디지털 혁신과 마찬가지로 인간을 보완하는 역할이 더 클 것”이라면서 “다만 오·남용할 경우 사회적 가치와 충돌하는 문제를 초래하고 경우에 따라 직업의 기회 감소와 같은 실질적 위협에 직면할 수 있다”고 경고했다.

보고서는 생성형 AI 시장 선점과 챗GPT 부작용 대응과 관련해 ▲컴퓨팅파워 구축 및 AI 반도체 연구개발 강화 ▲데이터 구축 확대와 유통·거래 활성화 ▲안심하고 AI를 이용할 수 있는 환경 조성 등에 대한 정책적 뒷받침이 필요하다고 밝혔다. 또 보고서는 AI 반도체 역량 확보를 위해 AI 모델에 최적화된 반도체 연구개발 지원이 필요하다고 덧붙였다.

특히, AI 윤리규범 개발의 필요성과 이용자의 비판적 활용 능력을 높여야 한다고 강조했다.

보고서는 “생성형 AI와 관련된 저작권 규정을 합리적으로 정비할 필요가 있다”면서 “생성형 AI는 전혀 존재하지 않는 내용을 그럴듯하게 표현하는 환각이 종종 발생하기도 해 이용자는 결과물이 사실과 다를 수 있다는 점을 명확하게 인지하고 있어야 한다”고 전했다.

정부도 AI 시대에 대응하기 위한 대책 마련에 속도를 내고 있다. 과기정통부는 지난 8일 인공지능(AI) 최고위 전략대화에서 AI 경쟁력 강화를 위한 정책 투자방향을 논의했다.

이 자리에서는 챗GPT 등장에 따라 교육, 의료, 공공 분야 등 다양한 사회영역에 미치는 영향 및 대응 방향에 대한 논의가 이어졌으며, 초거대 AI 학습 및 성과 확산을 위한 규제 개선 필요 사항과 신뢰성, 윤리 확보를 위한 기술적·사회적·제도적 고려사항 등이 논의됐다.

이날 최문정 카이스트 과학기술정책대학원장은 "챗GPT조차 자신은 잘못된 정보를 줄 수 있고, 편향된 내용이나 해를 끼칠 수 있는 설명을 제공할 수 있다고 말한다. 결국에는 AI 윤리에서 혹은 AI 원칙에서 이야기하는 팩트(사실)와 공정성, 책임성, 투명성의 개념에서 다시 한 번 고민을 해봐야 한다"고 제언했다.

SNS 기사보내기

기사제보
저작권자 © 폴리뉴스 Polinews 무단전재 및 재배포 금지