2024.05.22 (수)

  • 맑음속초18.3℃
  • 맑음21.3℃
  • 맑음철원20.6℃
  • 구름조금동두천20.1℃
  • 구름조금파주18.2℃
  • 구름많음대관령18.4℃
  • 맑음춘천22.1℃
  • 흐림백령도14.7℃
  • 구름조금북강릉24.7℃
  • 구름조금강릉26.1℃
  • 구름많음동해19.8℃
  • 구름조금서울21.0℃
  • 구름많음인천18.1℃
  • 구름많음원주23.1℃
  • 구름조금울릉도16.2℃
  • 구름많음수원19.6℃
  • 구름조금영월22.3℃
  • 맑음충주23.0℃
  • 구름많음서산17.6℃
  • 구름많음울진17.4℃
  • 구름많음청주23.2℃
  • 흐림대전22.2℃
  • 구름많음추풍령22.6℃
  • 구름많음안동23.1℃
  • 구름많음상주23.8℃
  • 구름많음포항23.0℃
  • 구름많음군산18.4℃
  • 맑음대구25.6℃
  • 구름많음전주21.0℃
  • 구름많음울산18.0℃
  • 구름많음창원19.0℃
  • 구름많음광주22.7℃
  • 구름많음부산18.5℃
  • 구름많음통영18.2℃
  • 구름많음목포18.4℃
  • 구름많음여수19.5℃
  • 안개흑산도15.2℃
  • 구름많음완도18.7℃
  • 구름많음고창
  • 구름많음순천20.0℃
  • 구름많음홍성(예)20.5℃
  • 구름많음20.7℃
  • 구름많음제주20.3℃
  • 흐림고산18.9℃
  • 구름많음성산18.8℃
  • 흐림서귀포19.5℃
  • 구름많음진주20.6℃
  • 구름많음강화15.3℃
  • 구름많음양평22.4℃
  • 구름많음이천21.7℃
  • 맑음인제23.2℃
  • 구름많음홍천21.3℃
  • 맑음태백18.9℃
  • 구름조금정선군22.6℃
  • 구름조금제천20.8℃
  • 구름많음보은21.8℃
  • 구름조금천안20.5℃
  • 흐림보령18.2℃
  • 흐림부여22.0℃
  • 구름많음금산22.6℃
  • 구름많음21.5℃
  • 구름많음부안18.1℃
  • 구름많음임실21.3℃
  • 구름많음정읍19.5℃
  • 구름많음남원23.1℃
  • 구름많음장수20.8℃
  • 구름많음고창군19.0℃
  • 구름많음영광군17.7℃
  • 구름많음김해시18.8℃
  • 구름많음순창군22.4℃
  • 구름많음북창원21.9℃
  • 구름많음양산시20.5℃
  • 구름많음보성군20.1℃
  • 구름많음강진군20.4℃
  • 구름많음장흥20.0℃
  • 흐림해남19.5℃
  • 구름많음고흥19.2℃
  • 구름많음의령군23.4℃
  • 구름많음함양군22.7℃
  • 구름많음광양시20.8℃
  • 구름많음진도군18.1℃
  • 구름조금봉화18.3℃
  • 맑음영주22.1℃
  • 구름조금문경22.4℃
  • 구름많음청송군20.0℃
  • 구름많음영덕17.3℃
  • 구름많음의성22.4℃
  • 구름많음구미24.0℃
  • 구름조금영천24.8℃
  • 구름많음경주시22.4℃
  • 구름조금거창22.2℃
  • 구름많음합천23.6℃
  • 구름많음밀양23.1℃
  • 구름많음산청22.1℃
  • 구름많음거제19.4℃
  • 구름많음남해18.7℃
  • 구름많음20.0℃
기상청 제공
구글, 챗GPT에 회사 정보 입력 금지... "깊어지는 AI 안전성 고민"
  • 해당된 기사를 공유합니다

NEWS

구글, 챗GPT에 회사 정보 입력 금지... "깊어지는 AI 안전성 고민"

pexels-photomix-company-218717.jpg

 

구글의 모회사 알파벳이 직원들에게 챗GPT 등 생성 AI 챗봇에 회사 기밀 정보를 입력하지 말라고 지시했다. 


주요 외신의 6월 15일 보도에 따르면, 알파벳은 오픈AI의 챗GPT를 포함, 자사의 AI 모델인 바드(Bard)에도 정보를 입력하지 말라고 직원들에게 지시한 것으로 알려졌다. 또한 알파벳은 자사 엔지니어들에게 챗봇이 생성할 수 있는 소스코드도 사용하지 말라고 경고한 것으로 전해진다.


알파벳의 이번 결정은 생성 AI가 사내 기밀 정보를 학습-재생산해 정보를 유출할 위협을 우려한 조치로 보인다.


구글은 챗GPT와의 경쟁을 위해 자체 모델인 바드를 개발하는 등 AI 기술 생태계를 선점하기 위한 노력을 계속하고 있다. 


또한 최근에는 애플, 삼성, 아마존, 도이체방크 등 많은 기업들이 AI 챗봇에 대한 규정을 정하고 있는 상황이다.


네트워킹 사이트인 피쉬볼(Fishbowl)이 미국의 주요 기업을 포함한 약 1만 2,000명의 응답자를 대상으로 실시한 설문조사에 따르면, 2023년 1월 기준 근로자의 약 43%가 회사에 알리지 않고 챗GPT 등 AI 도구를 사용하고 있는 것으로 파악됐다. 


구글은 로이터 통신과의 인터뷰에서 아일랜드 데이터 보호 위원회와 자세한 대화를 나눴으며 규제 당국의 질문에 답하고 있다고 말했다. 또한 챗봇이 프라이버시에 미치는 영향에 대한 추가 지침이 있을 때까지 바드의 EU 출시를 연기한다고도 밝혔다.


생성 AI로 인한 내부 정보 유출, 개인정보 유출, 사생활 침해에 대한 우려는 작년 챗GPT의 등장 이후 계속해서 큰 사회 문제로 대두되고 있다. 


일부 기업들은 이런 문제를 해결하기 위해 관련 소프트웨어를 개발하고 있다. 일례로 사이버 공격으로부터 웹사이트를 보호하고 클라우드 서비스를 제공하는 Cloudflare(NET.N)는 기업의 내부 데이터가 외부로 유출되는 것을 제한하는 기능을 제공한다. 


또한 구글과 마이크로소프트는 프리미엄 모드로 생성 AI 모델이 데이터를 저장하지 않는 기능을 제공하고 있다. 현재 바드와 챗GPT의 기본 설정은 사용자와 나눈 대화를 모두 저장한다. 단, 사용자가 원할 시 이 대화 기록을 삭제할 수 있다.


마이크로소프트의 CMO(Cheif marketing officer, 최고 마케팅 책임자)인 유수프 메흐디(Yusuf Mehdi)는 이번 사안에 대해 “직원이 업무에 AI 챗봇을 사용하지 않도록 하는 것이 이치에 맞다"고 말했다.



 


챗GPT 로고.jpg

 

Q. 챗GPT, 최근 알파벳이 직원들에게 채팅 GPT 등 생성 AI에 회사의 기밀 정보를 입력하지 말라고 지시했어. 생성 AI로 인한 기업들의 개인정보 침해, 사생활 침해 등 우려가 계속되고 있는데, 어떻게 하면 이러한 우려를 줄일 수 있을까?


"생성된 AI에 대한 기업의 개인정보 및 개인정보 침해에 대한 우려는 타당하며 해결이 필요합니다. 채팅 GPT와 같은 AI 모델은 공개적으로 사용 가능한 방대한 양의 데이터에 대해 교육을 받지만, 해당 정보가 공개되지 않는 한 특정 회사의 독점 또는 기밀 정보에 직접 액세스할 수 없습니다.


이러한 문제를 줄이기 위해 다음과 같은 몇 가지 단계를 수행할 수 있습니다.


• 사용자 교육: 채팅 GPT와 같은 AI 모델의 한계에 대해 직원과 사용자에게 교육하는 것이 중요합니다. 그들은 AI 모델과 민감하거나 기밀 정보를 공유하면 위험을 초래할 수 있다는 것을 알아야 하며, 이러한 시스템과 상호 작용할 때 주의를 기울여야 합니다.


• 데이터 익명화: 기업은 AI 모델을 교육하는 데 사용되는 모든 데이터가 적절하게 익명화되고 개인 식별 가능 정보(PII)가 제거되도록 조치를 취할 수 있습니다. 이렇게 하면 사용자 개인 정보를 보호하고 중요한 데이터가 실수로 노출되는 것을 방지할 수 있습니다.


• 강력한 액세스 제어: 기업은 강력한 액세스 제어 및 권한 시스템을 구현하여 권한이 부여된 개인만이 중요한 정보에 액세스할 수 있도록 해야 합니다. 여기에는 무단 액세스로부터 보호하기 위한 물리적 및 디지털 보안 조치가 모두 포함됩니다.


• 윤리적 지침 및 규정: 윤리적 지침 및 규정을 개발하고 준수하면 AI 모델의 사용을 통제하고 책임감 있게 사용할 수 있습니다. 여기에는 AI 시스템의 데이터 사용, 개인 정보 보호 및 투명성에 대한 지침이 포함될 수 있습니다.


• 정기 감사 및 검토: AI 시스템에 대한 정기 감사 및 검토를 수행하면 잠재적인 개인 정보 보호 또는 보안 문제를 식별하는 데 도움이 될 수 있습니다. 여기에는 모델 교육에 사용되는 데이터 평가, 시스템 동작 모니터링 및 발생하는 문제 해결이 포함됩니다.


• 투명한 공개: 기업은 AI 시스템의 기능과 한계를 투명하게 인식하고, 어떤 데이터가 수집되고, 어떻게 사용되고, 어떻게 보호되고 있는지 사용자에게 명확하게 전달하는 것이 중요합니다. 이를 통해 신뢰가 구축되고 사용자가 정보에 입각한 결정을 내릴 수 있습니다.


전반적으로 개인 정보 및 개인 정보 침해와 관련된 우려를 해결하려면 사용자 교육, 책임 있는 데이터 관행, 강력한 보안 조치 및 규제 프레임워크가 필요합니다. AI 기술의 책임감 있고 윤리적인 사용을 보장하기 위해 지속적인 개선과 적응이 필요한 진행 중인 과정입니다."

관련기사