2024.05.03 (금)

  • 맑음속초24.3℃
  • 맑음27.6℃
  • 맑음철원26.8℃
  • 맑음동두천28.1℃
  • 맑음파주26.7℃
  • 맑음대관령23.4℃
  • 맑음춘천27.8℃
  • 맑음백령도20.8℃
  • 맑음북강릉24.3℃
  • 맑음강릉27.5℃
  • 맑음동해20.7℃
  • 맑음서울27.3℃
  • 맑음인천23.1℃
  • 맑음원주25.9℃
  • 맑음울릉도17.9℃
  • 맑음수원25.6℃
  • 맑음영월27.7℃
  • 맑음충주26.5℃
  • 맑음서산24.5℃
  • 맑음울진19.2℃
  • 맑음청주26.1℃
  • 맑음대전26.1℃
  • 맑음추풍령25.8℃
  • 맑음안동26.8℃
  • 맑음상주27.0℃
  • 맑음포항24.5℃
  • 맑음군산21.3℃
  • 맑음대구27.4℃
  • 맑음전주25.8℃
  • 맑음울산22.5℃
  • 맑음창원22.1℃
  • 맑음광주26.8℃
  • 맑음부산21.9℃
  • 맑음통영20.9℃
  • 맑음목포22.6℃
  • 맑음여수21.0℃
  • 맑음흑산도17.7℃
  • 맑음완도25.3℃
  • 맑음고창23.9℃
  • 맑음순천24.1℃
  • 맑음홍성(예)24.8℃
  • 맑음25.1℃
  • 맑음제주20.2℃
  • 맑음고산18.9℃
  • 맑음성산20.2℃
  • 맑음서귀포21.1℃
  • 맑음진주25.9℃
  • 맑음강화23.1℃
  • 맑음양평25.9℃
  • 맑음이천26.4℃
  • 맑음인제28.7℃
  • 맑음홍천27.7℃
  • 맑음태백26.7℃
  • 맑음정선군30.9℃
  • 맑음제천26.3℃
  • 맑음보은25.4℃
  • 맑음천안25.5℃
  • 맑음보령24.8℃
  • 맑음부여26.5℃
  • 맑음금산25.7℃
  • 맑음25.8℃
  • 맑음부안22.8℃
  • 맑음임실25.7℃
  • 맑음정읍26.3℃
  • 맑음남원26.9℃
  • 맑음장수25.2℃
  • 맑음고창군25.7℃
  • 맑음영광군23.5℃
  • 맑음김해시23.2℃
  • 맑음순창군26.8℃
  • 맑음북창원25.8℃
  • 맑음양산시25.8℃
  • 맑음보성군24.8℃
  • 맑음강진군25.1℃
  • 맑음장흥24.6℃
  • 맑음해남25.5℃
  • 맑음고흥24.4℃
  • 맑음의령군27.7℃
  • 맑음함양군27.8℃
  • 맑음광양시24.6℃
  • 맑음진도군22.6℃
  • 맑음봉화25.9℃
  • 맑음영주26.3℃
  • 맑음문경26.4℃
  • 맑음청송군28.3℃
  • 맑음영덕23.5℃
  • 맑음의성27.1℃
  • 맑음구미27.0℃
  • 맑음영천27.3℃
  • 맑음경주시27.5℃
  • 맑음거창25.7℃
  • 맑음합천26.9℃
  • 맑음밀양27.9℃
  • 맑음산청27.5℃
  • 맑음거제24.0℃
  • 맑음남해23.1℃
  • 맑음24.1℃
기상청 제공
[기고] 챗GPT의 위험한 동거, 생성AI는 얼마나 위험한가?
  • 해당된 기사를 공유합니다

[기고] 챗GPT의 위험한 동거, 생성AI는 얼마나 위험한가?

[연재] 챗GPT로 열린 새로운 생성 AI의 시대#3
장중호 AI종합대학원 교수 칼럼

제목을-입력해주세요_-001 (27).jpg

 

[글] 장중호 AI 종합대학원 교수, 공학박사

 

챗GPT가 세상에 널리 알려진지 4개월밖에 안되었고, 나도 챗GPT에 대해서 글을 쓰게된 지 6개월도 채 되지 못했는데, 연일 온세상이 챗GPT로 인해 난리다. 

 

첫번째 글은 챗GPT의 신기함에 대해서 썼고, 두번째 글은 알고리즘의 원리와 챗GPT의 한계점에 대해서 언급을 했는데 이번 글은 챗GPT의 위험성과 규제에 대해서 글을 쓰게 되는 것이 참으로 숨가쁘게 변해하는 AI의 세상에 대해 나 같은 소위 AI를 전공한 전문가 마저도 어리둥절할 뿐이다. 

 

먼저 4월 14일에 놀라운 기사가 떴다. 유럽의 이탈리아 정부가 이탈리아 내에서의 챗GPT의 사용을 전세계 나라들 중의 최초로 금지한 것이다. 당연히 미국과 적대적인 관계에 있는 중국은 아예 처음부터 구글이나, 유튜브 등의 사용이 막혀있으니, 그려려니 했는데, 유럽의 서방국가가 금지시켰다는 것은 참으로 놀랍다. 

 

몇달 전부터 챗GPT와 같은 초거대 생성형 AI의 사용과 확산에 대한 우려하는 기사들이 본격적으로 나온다고 느꼈는데, 이탈리아와 같은 커다란 나라가 나라차원에서 챗GPT의 사용을 금지까지 하리라고는 생각도 못했다. 이렇게 극단적으로까지 한 것을 보면 내가 생각했던 것보다, 심각하게 돌아가는구나 라는 생각이 들었다. 이탈리아는 일단 챗GPT의 사용을 차단하고 챗GPT를 개발한 회사인 Open AI에 우선 챗GPT가 사용하는 논리 배열과 데이터 처리 방법을 사용자가 확인할 수 있게끔 오픈AI 웹사이트에 게시할 것을 요구했다. 

 

또 서비스 이용자가 아니더라도 챗GPT가 부정확하게 생성한 개인 정보를 정정하거나 삭제할 수 있도록 하는 도구를 제공하라고 했다. 아울러 13세 미만은 서비스에 접근하지 못하도록 하는 연령 확인 시스템 도입을 요구했다. 보호청은 오는 30일까지 오픈AI가 내놓는 조치를 토대로 접속 금지 해제 여부를 검토한다는 방침이다. 

 

위의 요구 사항을 보면 왜 이탈리아가 이렇게 강경하게 나가는지에 대해서 이해가 된다. 이탈리아뿐 아니라 아예 유럽연합에서는 유럽연합의 데이터 보호 규정을 감독하는 기구인 유럽정보보호이사회(EDPB) 안에 챗GPT 전담 TF를 구성하고 본격적으로 정책 논의에 착수했다. 유럽 국가들이 저마다 챗GPT 규제를 검토하고 나서자 EU 회원국의 입장을 조율하고 전반적인 정책을 논의하겠다는 취지다. 

 

pexels-pavel-danilyuk-8439093.jpg

 

유럽뿐만 아니라 챗GPT의 본토인 미국에서도 챗GPT를 포함한 생성형 AI 규제 입법안 마련에 돌입했다. 척 슈머 미국 민주당 상원 원내대표는 성명을 내고 “미국이 이 혁신적인 기술을 발전시키고 선도할 수 있게 하는 동시에 재앙적인 피해를 방지하도록 하기 위해 새 감독체계와 관련한 초안을 작성해 회람했다”고 밝혔다. 초안에는 AI 기업이 새 기술을 출시할 때 독립적인 전문가의 검사를 거치고, 사용자가 정보 결과에 대해 접근권을 갖도록 하는 내용이 담겼다. 

 

중국도 생성형 AI 서비스 관리 방안 초안을 발표하고, 기업이 AI 서비스를 출시하기에 앞서 제품의 안전성을 평가해 당국에 제출하도록 했다. 캐나다 당국 또한 챗GPT의 개인 정보 수집·사용 절차를 문제 삼고 오픈AI에 대해 조사하고 있다. 

 

한국에서도 각종 정보 유출 우려 문제가 대두되면서 생성형 AI 관련 제도적 안전장치 마련 필요성이 제기됐다. 생성형 AI 서비스 부작용이 단순 정보 유출 차원을 넘어 잠재적으로 국가안보에도 영향을 미칠 수 있는 만큼 이를 관리하기 위한 새로운 규정이 필요하다는 지적이다. 이에 개인정보보호위원회는 올해 6월까지 ‘AI 데이터 안전 활용 정책방향’을 수립하겠다는 계획을 내놨다.

 

위에서 언급한데로 국가차원에서의 챗GPT에 대한 규제를 추진하는 것과 동시에 각 기업들에서도 자사의 직원들이 챗GPT를 사용하는 것에 대해 제한 혹은 사용에 대한 가이드라인을 엄격하게 만들고 있다. 직원들이 회사 내부 정보를 포함한 내용을 챗GPT에 입력해 자칫 영업 기밀이 새어나갈 수 있다는 우려에서다. 

 

챗GPT 오남용에 대한 안전망 마련은 삼성전자 디바이스솔루션(DS·반도체) 부문에서 ‘설비정보 유출’ 2건과 ‘회의내용 유출’ 1건의 사고가 났다는 사실이 대외에 알려지며 확산되고 있다. 삼성전자 DS 부문은 유출 사고 인지 후 챗GPT 질문당 업로드 용량을 1024바이트로 제한하는 등의 ‘긴급조치’ 사항을 적용했다. 챗GPT 사내 사용을 금지하고 있는 삼성전자 디바이스경험(DX·모바일과 가전) 부문은 사용 지침을 마련 중이다. DX 부문 임직원을 대상으로 챗GPT 사용과 관련한 설문조사를 최근 마무리하고, 이를 기반으로 사용 허가 여부 등을 논의하고 있다. 

 

LG전자와 현대자동차는 챗GPT 오남용에 대한 우려가 커지자, 최근 사내 직원을 대상으로 사용 주의를 환기했다. 두 기업 모두 4월 초 “사내 주요 정보와 고객 정보를 챗GPT에 입력하지 말라”는 내용을 공지했다. LG디스플레이의 경우 사내 정보 보호와 유출 방지 관련 교육을 진행했다. 포스코는 내부 인트라넷을 통해서만 챗GPT에 접속할 수 있도록 했다. SK하이닉스는 기본적으로 챗GPT 사내 사용을 막고 있지만, 필요할 경우 별도 신청을 통해 이용이 가능하다. 국내 기업 뿐 아니라 미국의 JP모건 체이스가 직원들의 챗GPT 사용을 전면 금지했다. 

 

민감한 고객들의 금융 및 신용 정보들을 많이 다루는 회사 특성상 혹시 모를 고객의 정보 유출을 사전에 막기 위함이다. 통신업체인 버라이즌도 고객 정보 유출에 대한 염려로 사용을 금지하였다. 일본도 마찬가지도 NTT 도코모, 소프트뱅크, 야후와 같은 굴지의 IT 기업들이 챗GPT의 사용을 금지하고, 단순히 챗GPT의 금지를 넘어 외부의 플랫폼에서 제공하는 AI 서비스에 대한 사용 금지까지도 검토하고 있다. 

 

pexels-cottonbro-studio-5473955.jpg

 

챗GPT의 사용을 제한하는 주된 이유는 크게 두가지로 귀결된다. 첫번쨰는 기업의 기밀이나 개인들의 민감한 정보들이 쉽게 유출되고, 악용될 수 있다는 것이다. 특히나 위에 언급된 삼성전자나 현대자동차와 같은 기술이 가장 중요한 기업에 있어서 만일 직원이 무분별하게 챗GPT를 통해 업무를 진행하며, 자사의 데이터를 질문속에 포함시키거나, 아니면 추진 중인 프로젝트에 대한 사안을 발설을 하여 챗GPT의 빅데이터 학습모델에 그 내용이 포함되어 다시 학습이 된다면 심각한 문제가 될 수있다. 특히 챗GPT의 강점중의 하나가 컴퓨터 프로그램밍 코드를 짜주기도 하고, 수정해주기도 하여, 많은 개발자들이 챗GPT에 자신이 짠 코드를 올리고, 도움을 받는 것이다. 

 

점점 많은 프로그램 코드에 대한 정보와 데이터로 학습이 된 챗GPT의 코딩 능력은 배가가 되고 있지만, 당연히 IT 기업에서의 자사의 프로그래머가 작성한 코드는 기밀이고 자산인데, 이러한 것이 유출이 된다는 것은 심각한 일이다. 개인의 금융이나 신용, 기타 신상정보에 대한 유출도 심각하다. 아직 직접 내가 해본 것은 아니지만, 전문가들의 말들에 의하면, 챗GPT를 통해 지속적이고 기술적으로 집요한 질문을 유도하고 시행하면 특정 개인의 주소나 전화번호, 심지어 계좌번호나 비밀번호까지 알아 낼 수있다고 한다. 물론 쉬운 일은 아니겠지만 충분히 가능한 일이다. 

 

챗GPT를 학습시킨 수많은 데이터들에는 무엇까지 들어가 있는지 우리는 알지 못한다. 초거대 AI라는 것은 인터넷에서 돌아다니고 올라가있는 거의 모든 데이터들이나 기사, 글들을 다 긁어다가 마치 데이터의 블랙홀처럼 모든 정보를 빨아들여 학습시키는 개념이다. 그래야 우리가 원하는 챗GPT 가 마치 사람처럼 자연스럽게 답을 할 수가 있다. OpenAI의 기술자나 직원들이 일일이 인터넷에서 데이터들을 찾아서 골라내어 데이터 등록을 한 것이 아닌 것이다. 

 

구글이나 기타 거대한 검색엔진을 통한 데이터, 페이스북이나 트위터 같은 SNS에 오간 모든 데이터들, 모든 홈페이지나 플랫폼에 있는 정보나 지식 등 모든 것을 초거대 AI 플랫폼에 넣고 수년간 학습을 시킨 것이기에 어떠한 데이터가 심지어 나의 개인적인 계좌번호나 신상정보 등을 누군가에게 이메일을 보낸 것이 어떤 경로로 휩쓸려가 지금 챗GPT의 어딘가에 학습되어 있을 지도 모른다. 

 

나 같은 평범한 사람이야 덜 하겠지만, 조금이라도 사람들에게 알려진 공인이나 유명인에 대한 개인 정보는 챗GPT를 통해 지속적으로 질문을 통해 캐낸다면, 어딘가에 학습되어 있는 정보가 답변에 섞여서 나올 여지가 크다. 아마도 전세계의 똑똑한 해커나 보이스피싱의 전문가들은 이미 챗GPT를 통해 엄청난 개인이나 기업의 기밀 정보들을 좋아라하며 뽑아내고 있을지도 모른다.

 

pexels-pixabay-247791.jpg

 

또 하나의 챗GPT의 사용을 제한하고자 하는 이유는 AI의 편향적인 정보생성이나 답변에 대한 문제이다. 그 것은 사실 챗GPT나 생성 AI 프로그램들의 문제보다도 그 것을 악용해서 써먹는 나쁜 사람들의 책임이 크다. 챗GPT가 유행을 타기 시작하면서 거의 매일 인터넷 언론에는 말도 안되는 정치 관련 기사들이 떠오르기 시작했다. 

 

챗GPT에게 윤석열 대통령이 국정 운영을 잘하고 있냐고 물어봤더니, 완전히 못하고 있다고 답했다는 둥, 챗GPT에게 물어봤더니 이재명 민주당대표에 대한 검찰수사가 정치 탄압의 소지가 크다고 답했다는 둥, 어떻게든 정치적으로 사람들을 혼란스럽게 만들기 위한 기사에 손쉽게 챗GPT를 동원하여, 마치 챗GPT가 신이라도 된 듯이, 모든 것을 판단하고 정답을 주는 것 처럼 몰아가는 경향이 보이고 있다. 처음에는 재미로 흥미로 그려려니 하면서 그러한 기사를 보았지만, 지금은 그 정도가 점점 지나쳐가는 것 같다. 또 정치적, 윤리적으로 민감한 법안 들, 예를 들면 일부의 사람들이 동성애자들에 대한 차별금지법에 대해 챗GPT에게 물어봤더니, 장단점이 있지만 결국은 더욱 강화해야 한다고 답을 했다는 기사를 통해 법안을 강화해야한다고 주장한다. 

 

자신들의 주장을 뒷받침하기 위한 답변을 여러 질문들로 유도하여 챗GPT가 이렇게 답을 하였다는 것을 근거로 사람들에게 알리고 홍보를 하는 기사들을 쓰는 것이다. 물론 사람들이 생각하는 것은 자유이지만, 동성애 등과 같이 아주 민감한 문제에 대해 편향적인 의견을 챗GPT가 가지고 이 것을 무분별하게 답변을 준다면 사회적으로 아주 큰 문제가 될 것이다. 

 

특히 청소년이나 학생들이 앞으로 세상에 대한 여러 가치관 생성에 챗GPT와 같은 생성형 AI에 의존하고 물어보고 배우는 것이 앞으로 엄청난 트랜드가 되어 오히려 학교 선생님이나 부모님 보다도 챗GPT나 그 외 AI에게 배우고 영향력을 많이 받을 수 있는 상황에서 이러한 민감한 문제에 대한 편향적 대답은 매우 위험하다. 그래서 앞에 언급한 이탈라이아 정부에서는 OpenAI 사에 챗GPT가 사용하는 논리 배열과 데이터 처리 방법을 사용자가 확인할 수 있게끔 오픈AI 웹사이트에 게시할 것을 요구한 듯하다. 도데체 어떤 논리로 챗GPT가 이러한 생각과 답변을 하게 되었는지 알리라는 것인데, 이러한 요구에 대해서 OpenAI는 어떻게 대처할지 궁금하다. 

 

AI라는 것 자체가 우리가 아는바와 같이 하나의 커다란 Black Box로 복잡한 딥러닝의 구조와 수많은 빅데이터의 학습을 통해 완성되는 것인데, 어떻게 각각의 사안에 대한 논리배열과 그 수많은 빅데이터의 내용들을 어떻게 처리하였는지를 설명할 수 있을지 상상이 안간다. 게다가 이미 영리를 위한 사기업이 되어 버린 OpenAI가 이러한 자신들의 독자적인 기술로 이루어진 생성AI의 구조나 데이터 프로세스 등을 세상에 일일이 공개를 해야한다는 것도 참으로 난감한 일일 것이다. 챗GPT의 GPT 알고리즘은 강화학습에 기반을 한다. 

 

초반에 GPT 알고리즘을 학습시킬 때는 수많은 사람들이 관여를 하였을 것이다. 특정 질문이나 문장에 대해서 잘 구성이 되었는지, 이상하게 되었는지를 일일이 사람이 평가하고 좋은 답변과 잘못된 문장을 가려주었을 것이다. 하지만 시간이 지나서 어느 정도 챗GPT가 학습이 된 이 후에는 강화학습이라는 몇가지의 선택 중에서 AI가 알아서 사람들이 좋아하고 옳다고 생각할 확률이 높은 단어를 선택하고 문장을 구성하는 방향으로 계속 답을 내고 학습해 가는 구조이다. 하지만 지금도 이 강화학습의 과정 속에 충분히 의도를 가진 사람이 관여하여 특정한 방향으로 챗GPT를 학습시킬 수 있다. 위험성이 존재하는 것이다. 

 

챗GPT에 대한 사람들의 생각이 처음에는 경이로움과 놀라움에서 점차 현실적인 두려움과 부작용에 민감해지고 있다. 하지만 그렇다고 챗GPT를 금지시키고 외면하는 것은 어리석은 일일 것이다. 어떻게 현명하고 지혜롭게 이 커다란 세상의 흐름속에 대처할 것인가가 중요한 시점이다.

 

 


 


<장중호 칼럼니스트>

 

20230526104636_623440e261b78a5ae416124203649757_dd4e.jpg


[약력]

현, 서울과학종합대학원 AI공학대학원 교수

전, 홈플러스 마케팅부문장/전무

전, GS홈쇼핑 마케팅부문장/상무

전, 이마트 마케팅담당/상무

전, 딜로이트 컨설팅 전략컨설팅 상무

전, PwC 컨설팅, 전략컨설팅 상무


[학력]

미, Texas A&M University, 컴퓨터공학 석사/박사 (1996년)

연세대 전자공학과 졸 (91년)

경기고등학교 졸 (87년)


관련기사