[밸류체인타임스 = 권예원 칼럼니스트] 11일 일론머스크가 자신의 개인 X 계정에 애플(Apple)이 애플 기기에 AI를 탑재하는 것에 대해 강하게 반발의 글을 남겼다. 일론머스크는 “애플이 OS 수준에서 오픈AI를 통합한다면, 내 회사에선 애플 기기는 금지될 것이다. 이는 용납할 수 없는 보안 위반이다”라고 말했다. 덧붙여 “애플은 자체적으로 AI를 만들 만큼 똑똑하지 않다. 애플이 당신의 데이터를 오픈AI에 넘겨주면 어떤 일이 일어날지 모른다. 애플은 당신을 배신하고 당신의 정보를 팔아넘길 것이다”라고 말하며 경고했다.
실제로 AI 알고리즘을 학습시키기 위해 사용한 정보가 무단으로 사용됐다는 것을 알고 집단소송을 한 사례도 있다. 2023년 6월, 캘리포니아에 위치한 로펌인 클락슨(Clarkson)은 챗 GPT를 만든 오픈 AI를 상대로 집단소송을 제기했다. 클락슨(Clarkson)은 “AI를 학습시키기 위해 사용된 소셜미디어의 댓글과 블로그 게시물, 기사들이 사용자들의 허가 없이 이용됐다”라며 오픈AI 측에 집단소송을 제기했다.
(출처: Trusted Review)
국내 기업인 ‘삼성전자’에서도 생성형 AI로 인한 기업정보 유출 문제가 3건이나 발생했다. 그중 하나는 반도체 설비 계측 데이터베이스 다운로드 프로그램의 소스 코드가 유출되는 사고로, 삼성전자의 핵심 내용이 유출되어 큰 논란을 일으켰다. 한 임직원이 소스 코드를 확인하던 중 오류를 발견했고, 이를 복사해 챗GPT에게 해결 방안을 요청했다. 이로 인해 삼성전자 설비 계측에 관련된 소스가 AI의 학습 데이터로 입력되었다. 삼성전자는 급하게 조치 방안을 마련했지만, 코드는 이미 유출된 후였다.
AI로 인한 개인정보 유출문제는 생성형 AI에게서 더욱 두드러지게 나타난다. 생성형 AI는 기계 학습 알고리즘을 활용해 새로운 데이터나 콘텐츠를 생성하는 인공지능이다. 챗GPT는 우리가 사용하는 가장 대표적인 생성형 AI다. 생성형 AI가 개인정보 유출에 취약한 이유는 알고리즘에 의해 새로운 데이터를 만들어 내기 때문이다. 또한 생성형 AI로 사용된 모든 정보가 데이터로 쌓여 이용되기 때문이다.

(출처: Pexels)
생성형 AI를 사용한 뒤 ‘결과에 만족하시나요?’ 같은 질문을 하는 이유 또한 더 정확한 정보를 제공하기 위함이다. 생성형 AI는 많은 사람들이 이용할수록 더 많은 정보를 얻게 되고, 답변에 대한 정확도와 퀄리티 역시 올라가게 된다. 챗GPT 역시 유료인 최신 버전을 제외한 모든 버전을 무료로 이용할 수 있는 것 또한 무료 버전의 퀄리티를 높이기 위함이다.
해외 기업들은 AI를 적극적으로 활용해야 한다는 의견과 회사의 기밀정보와 개인정보가 유출될 수 있어 자제해야 한다는 의견으로 엇갈린다. 해외 금융회사의 경우 챗GPT 사용 시 재무 테이터와 기밀정보가 유출될 가능성을 생각해 사내에서 챗GPT 사용을 금지한다.
이탈리아의 경우 “챗GPT의 알고리즘 훈련을 위한 대규모 개인정보 수집 및 처리를 정당화할 법적 근거가 없다”라고 말하며 일시적으로 챗GPT의 사용을 금지시켰다. 또한 지난 1월, 이탈리아의 프라이버시 보호 규정(GDPR) 감독기관인 가란테가 오픈AI 측에 “챗GPT가 유럽연합의 데이터 프라이버시 보호규정을 위반하고 있다”라고 경고했다. 가란테는 연령 제한 적용과 데이터 처리 투명성, 데이터 관리 거부 권한을 요청했다. 오픈AI는 이 요청을 받아들이고, 가란테가 제기한 문제를 적극적으로 해결했다.
각국에서는 개인정보와 기업정보 보호를 위한 구체적인 방안들이 논의되고 있다. 유럽연합은 AI와 관련된 데이터 보호를 강화하기 위해 GDPR(General Data Protection Regulation)을 도입했다. 이 규정은 AI 시스템이 개인정보를 처리할 때 사용자가 명확히 동의해야 하고, 데이터 보호 책임자를 지정하여 AI와 관련된 데이터 관리와 보호를 철저히 감독하게 한다.
스페인의 BBVA 은행은 GDPR 준수를 위해 AI 시스템에 개인정보 보호 기능을 통합했다. 고객의 데이터를 처리할 때, 고객이 데이터 처리에 동의하고, 언제든지 데이터 접근 및 삭제를 요청할 수 있다. 이를 통해 고객의 개인정보 보호와 데이터 투명성을 보장하고 있다.
미국에서는 여러 주에서 AI와 데이터 보호를 위한 법적 조치를 강화하고 있다. 캘리포니아주는 CCPA(California Consumer Privacy Act)를 통해 개인정보보호를 강화하고 있다. IBM은 CCPA를 준수하기 위해 AI 시스템 사용 시 개인정보보호를 위한 내부 지침을 마련했다. 민감한 데이터는 AI 플랫폼에 입력하지 않도록 직원들을 철저히 교육하고 있으며, 데이터 사용에 관한 정보를 공개하고 있다. IBM은 또한 데이터 익명화 기술을 도입하여 개인정보 유출 위험을 최소화하고 있다.
일본 정부는 AI와 관련된 개인정보보호를 위해 APPI(Act on the Protection of Personal Information)를 개정했다. 소프트뱅크는 APPI 준수를 위해 AI 시스템에 강력한 보안 프로토콜을 적용하고 있다. 데이터 익명화 기술을 사용해 개인정보를 보호하며, 데이터 접근 권한을 엄격히 제한하고 있다. 데이터 처리와 관련된 모든 활동을 기록하고, 주기적으로 보안 감사를 실시해 데이터 보호 수준을 유지하고 있다.

사진출처:unsplash
정보유출을 막기 위해서 생성형 AI를 이용할 때 개인정보를 기재하지 않는 것도 하나의 방법이다. 빠르게 발전하는 AI에 발맞추어 보안프로그램을 개발하는 기업들도 늘고 있다. 기업은 사용자들의 개인정보를 지켜주고, AI 개발에 참여하고 싶은 사용자는 동의하에 정보를 제공할 수도 있다. 기업과 사용자가 의미 없는 분쟁과 싸움 대신 AI를 더 긍정적으로 사용할 수 있는 방법을 함께 모색할 필요가 있다.
AI를 안전하게 활용하기 위해서는 철저한 법적 제도와 기업 내부의 엄격한 지침, 개인의 인식 제고가 필요하다. AI 시대에서 개인정보와 기업정보를 안전하게 보호하는 것은 법적, 기술적, 교육적 측면의 종합적인 접근이 필요하다. 더불어 기업과 정부, 개인이 함께 노력하여 AI 기술을 신뢰할 수 있는 방식으로 활용하는 것이 중요하다.
저작권자 © 밸류체인타임스 무단전재 및 재배포 금지
[밸류체인타임스 = 권예원 칼럼니스트]
[밸류체인타임스 = 권예원 칼럼니스트] 11일 일론머스크가 자신의 개인 X 계정에 애플(Apple)이 애플 기기에 AI를 탑재하는 것에 대해 강하게 반발의 글을 남겼다. 일론머스크는 “애플이 OS 수준에서 오픈AI를 통합한다면, 내 회사에선 애플 기기는 금지될 것이다. 이는 용납할 수 없는 보안 위반이다”라고 말했다. 덧붙여 “애플은 자체적으로 AI를 만들 만큼 똑똑하지 않다. 애플이 당신의 데이터를 오픈AI에 넘겨주면 어떤 일이 일어날지 모른다. 애플은 당신을 배신하고 당신의 정보를 팔아넘길 것이다”라고 말하며 경고했다.
실제로 AI 알고리즘을 학습시키기 위해 사용한 정보가 무단으로 사용됐다는 것을 알고 집단소송을 한 사례도 있다. 2023년 6월, 캘리포니아에 위치한 로펌인 클락슨(Clarkson)은 챗 GPT를 만든 오픈 AI를 상대로 집단소송을 제기했다. 클락슨(Clarkson)은 “AI를 학습시키기 위해 사용된 소셜미디어의 댓글과 블로그 게시물, 기사들이 사용자들의 허가 없이 이용됐다”라며 오픈AI 측에 집단소송을 제기했다.
국내 기업인 ‘삼성전자’에서도 생성형 AI로 인한 기업정보 유출 문제가 3건이나 발생했다. 그중 하나는 반도체 설비 계측 데이터베이스 다운로드 프로그램의 소스 코드가 유출되는 사고로, 삼성전자의 핵심 내용이 유출되어 큰 논란을 일으켰다. 한 임직원이 소스 코드를 확인하던 중 오류를 발견했고, 이를 복사해 챗GPT에게 해결 방안을 요청했다. 이로 인해 삼성전자 설비 계측에 관련된 소스가 AI의 학습 데이터로 입력되었다. 삼성전자는 급하게 조치 방안을 마련했지만, 코드는 이미 유출된 후였다.
AI로 인한 개인정보 유출문제는 생성형 AI에게서 더욱 두드러지게 나타난다. 생성형 AI는 기계 학습 알고리즘을 활용해 새로운 데이터나 콘텐츠를 생성하는 인공지능이다. 챗GPT는 우리가 사용하는 가장 대표적인 생성형 AI다. 생성형 AI가 개인정보 유출에 취약한 이유는 알고리즘에 의해 새로운 데이터를 만들어 내기 때문이다. 또한 생성형 AI로 사용된 모든 정보가 데이터로 쌓여 이용되기 때문이다.
(출처: Pexels)
생성형 AI를 사용한 뒤 ‘결과에 만족하시나요?’ 같은 질문을 하는 이유 또한 더 정확한 정보를 제공하기 위함이다. 생성형 AI는 많은 사람들이 이용할수록 더 많은 정보를 얻게 되고, 답변에 대한 정확도와 퀄리티 역시 올라가게 된다. 챗GPT 역시 유료인 최신 버전을 제외한 모든 버전을 무료로 이용할 수 있는 것 또한 무료 버전의 퀄리티를 높이기 위함이다.
해외 기업들은 AI를 적극적으로 활용해야 한다는 의견과 회사의 기밀정보와 개인정보가 유출될 수 있어 자제해야 한다는 의견으로 엇갈린다. 해외 금융회사의 경우 챗GPT 사용 시 재무 테이터와 기밀정보가 유출될 가능성을 생각해 사내에서 챗GPT 사용을 금지한다.
이탈리아의 경우 “챗GPT의 알고리즘 훈련을 위한 대규모 개인정보 수집 및 처리를 정당화할 법적 근거가 없다”라고 말하며 일시적으로 챗GPT의 사용을 금지시켰다. 또한 지난 1월, 이탈리아의 프라이버시 보호 규정(GDPR) 감독기관인 가란테가 오픈AI 측에 “챗GPT가 유럽연합의 데이터 프라이버시 보호규정을 위반하고 있다”라고 경고했다. 가란테는 연령 제한 적용과 데이터 처리 투명성, 데이터 관리 거부 권한을 요청했다. 오픈AI는 이 요청을 받아들이고, 가란테가 제기한 문제를 적극적으로 해결했다.
각국에서는 개인정보와 기업정보 보호를 위한 구체적인 방안들이 논의되고 있다. 유럽연합은 AI와 관련된 데이터 보호를 강화하기 위해 GDPR(General Data Protection Regulation)을 도입했다. 이 규정은 AI 시스템이 개인정보를 처리할 때 사용자가 명확히 동의해야 하고, 데이터 보호 책임자를 지정하여 AI와 관련된 데이터 관리와 보호를 철저히 감독하게 한다.
스페인의 BBVA 은행은 GDPR 준수를 위해 AI 시스템에 개인정보 보호 기능을 통합했다. 고객의 데이터를 처리할 때, 고객이 데이터 처리에 동의하고, 언제든지 데이터 접근 및 삭제를 요청할 수 있다. 이를 통해 고객의 개인정보 보호와 데이터 투명성을 보장하고 있다.
미국에서는 여러 주에서 AI와 데이터 보호를 위한 법적 조치를 강화하고 있다. 캘리포니아주는 CCPA(California Consumer Privacy Act)를 통해 개인정보보호를 강화하고 있다. IBM은 CCPA를 준수하기 위해 AI 시스템 사용 시 개인정보보호를 위한 내부 지침을 마련했다. 민감한 데이터는 AI 플랫폼에 입력하지 않도록 직원들을 철저히 교육하고 있으며, 데이터 사용에 관한 정보를 공개하고 있다. IBM은 또한 데이터 익명화 기술을 도입하여 개인정보 유출 위험을 최소화하고 있다.
일본 정부는 AI와 관련된 개인정보보호를 위해 APPI(Act on the Protection of Personal Information)를 개정했다. 소프트뱅크는 APPI 준수를 위해 AI 시스템에 강력한 보안 프로토콜을 적용하고 있다. 데이터 익명화 기술을 사용해 개인정보를 보호하며, 데이터 접근 권한을 엄격히 제한하고 있다. 데이터 처리와 관련된 모든 활동을 기록하고, 주기적으로 보안 감사를 실시해 데이터 보호 수준을 유지하고 있다.
사진출처:unsplash
정보유출을 막기 위해서 생성형 AI를 이용할 때 개인정보를 기재하지 않는 것도 하나의 방법이다. 빠르게 발전하는 AI에 발맞추어 보안프로그램을 개발하는 기업들도 늘고 있다. 기업은 사용자들의 개인정보를 지켜주고, AI 개발에 참여하고 싶은 사용자는 동의하에 정보를 제공할 수도 있다. 기업과 사용자가 의미 없는 분쟁과 싸움 대신 AI를 더 긍정적으로 사용할 수 있는 방법을 함께 모색할 필요가 있다.
AI를 안전하게 활용하기 위해서는 철저한 법적 제도와 기업 내부의 엄격한 지침, 개인의 인식 제고가 필요하다. AI 시대에서 개인정보와 기업정보를 안전하게 보호하는 것은 법적, 기술적, 교육적 측면의 종합적인 접근이 필요하다. 더불어 기업과 정부, 개인이 함께 노력하여 AI 기술을 신뢰할 수 있는 방식으로 활용하는 것이 중요하다.
저작권자 © 밸류체인타임스 무단전재 및 재배포 금지
[밸류체인타임스 = 권예원 칼럼니스트]