[밸류체인타임스 = 최한영 칼럼니스트] AI는 스스로 생각하고 주체가 되어서 말할 수 있다. 인간과 유사하다는 점에서 많은 관심을 받고 있지만, 그만큼 부작용도 존재한다. AI 기술이 다양한 분야에 적용되면서 윤리적인 문제가 계속해서 논란이 되고 있다.
AI가 발전함에 따라 인간에게 도움이 되어야 하지만, 오히려 일자리를 빼앗을 수 있다는 우려도 크다. 현재 대다수의 사람들이 AI가 아직 안전하지 않다고 생각하고 있다.
AI의 위험 요소로는 편향성, 인격권 침해, 사생활 침해, 신뢰성과 투명성 상실, 책임 문제, 검증되지 않은 정보 제공, 거짓 정보 등이 있다. 이러한 문제를 해결하고 AI 안정성에 대한 신뢰를 높이기 위해 법, 제도 제정을 연구하고 있다.
미국의 종합 기술업체 IBM에서는 AI 기술의 목적은 "인간의 지능을 대체하는 것이 아닌 인간의 능력과 잠재력을 강화하고 확장하는 것"이라고 밝혔다. IBM은 "개인과 조직이 책임감 있게 AI를 사용하도록 장려하고, AI 사용 원칙을 도입해야 신뢰를 바탕으로 시스템을 구축할 수 있다"라고 말했다.
AI 윤리적 문제 사례
챗봇 '이루리'는 출시 후 3일 만에 80만 명이 몰려들 정도로 큰 인기를 끌었지만, 20일 만에 서비스를 중단했다. 그 이유는 카카오톡에서 100억여 건의 대화 데이터를 수집했지만 임산부나 장애인을 대상으로 혐오 발언을 하는 등 부적절한 언어를 내뱉었기 때문이다. 이러한 발언은 사람들의 눈살을 찌푸리게 만들었다.
2016년에 공개된 마이크로소프트의 테이(Tay)는 16시간 만에 내려갔다. 그때 당시 미국의 백인 우월주의자와 인종차별자들이 성차별 발언 등을 유도했고, 테이는 대화를 통해 학습하기 때문에 인종차별 발언에 동조하거나 이를 따라 하는 메시지를 생성했다.
이처럼 AI는 윤리적, 비윤리적인 말을 구분하지 못하고 단순히 학습한 데이터를 바탕으로 대답한다. AI는 혐오적이나 차별적 언어는 분간해 내기 어렵다. 신조어나 은어도 많이 섞여 있기 때문에 걸러내기 어렵고, 화자의 의도를 정확하게 파악할 수 없기 때문에 더더욱 어려워진다.
AI의 윤리적 문제 해결에 대한 노력
AITRICS에서는 챗봇이나 여러 AI들의 차별, 혐오 발언을 막기 위해 Safety Classifier 기술을 개발했다. 이 기술은 챗봇이 생성한 답이나 사용자가 쓴 질문이 부적절한 언어인지 분류하고 차단하는 기능을 한다. 부적절한 메시지는 안전한 언어로 교체되어 발신된다.
AI에게 더 높은 신뢰도를 얻을 때까지는 더 오랜 시간이 걸릴 것이다. 하지만 현재 우리가 해결해야 하는 윤리적 문제를 잘 해결하는 것이 중요하다. AI를 사용하는 것은 매우 편리하지만, 그에 따르는 부작용과 불편함도 더 많아지는 법이다.
AI 신뢰성을 위한 법과 제도
AI의 신뢰성을 높이기 위해 각국에서는 다양한 법과 제도를 도입하고 있다. 유럽연합은 AI의 윤리적 사용을 보장하기 위해 AI 법안(AI Act)을 제정하고 있으며, 미국 역시 AI 윤리 가이드라인을 마련하고 있다.
AI가 우리 삶에 깊숙이 들어옴에 따라, 우리는 AI가 제공하는 정보와 대화를 신뢰할 수 있도록 지속적인 노력이 필요하다. 기술의 발전이 인간에게 진정한 도움이 되기 위해서는 윤리적 문제를 해결하고, 투명하고 책임 있는 AI 사용 문화를 정착시켜야 한다.
[밸류체인타임스 = 최한영 칼럼니스트] AI는 스스로 생각하고 주체가 되어서 말할 수 있다. 인간과 유사하다는 점에서 많은 관심을 받고 있지만, 그만큼 부작용도 존재한다. AI 기술이 다양한 분야에 적용되면서 윤리적인 문제가 계속해서 논란이 되고 있다.
AI가 발전함에 따라 인간에게 도움이 되어야 하지만, 오히려 일자리를 빼앗을 수 있다는 우려도 크다. 현재 대다수의 사람들이 AI가 아직 안전하지 않다고 생각하고 있다.
AI의 위험 요소로는 편향성, 인격권 침해, 사생활 침해, 신뢰성과 투명성 상실, 책임 문제, 검증되지 않은 정보 제공, 거짓 정보 등이 있다. 이러한 문제를 해결하고 AI 안정성에 대한 신뢰를 높이기 위해 법, 제도 제정을 연구하고 있다.
미국의 종합 기술업체 IBM에서는 AI 기술의 목적은 "인간의 지능을 대체하는 것이 아닌 인간의 능력과 잠재력을 강화하고 확장하는 것"이라고 밝혔다. IBM은 "개인과 조직이 책임감 있게 AI를 사용하도록 장려하고, AI 사용 원칙을 도입해야 신뢰를 바탕으로 시스템을 구축할 수 있다"라고 말했다.
출처=Unsplash
AI 윤리적 문제 사례
챗봇 '이루리'는 출시 후 3일 만에 80만 명이 몰려들 정도로 큰 인기를 끌었지만, 20일 만에 서비스를 중단했다. 그 이유는 카카오톡에서 100억여 건의 대화 데이터를 수집했지만 임산부나 장애인을 대상으로 혐오 발언을 하는 등 부적절한 언어를 내뱉었기 때문이다. 이러한 발언은 사람들의 눈살을 찌푸리게 만들었다.
2016년에 공개된 마이크로소프트의 테이(Tay)는 16시간 만에 내려갔다. 그때 당시 미국의 백인 우월주의자와 인종차별자들이 성차별 발언 등을 유도했고, 테이는 대화를 통해 학습하기 때문에 인종차별 발언에 동조하거나 이를 따라 하는 메시지를 생성했다.
이처럼 AI는 윤리적, 비윤리적인 말을 구분하지 못하고 단순히 학습한 데이터를 바탕으로 대답한다. AI는 혐오적이나 차별적 언어는 분간해 내기 어렵다. 신조어나 은어도 많이 섞여 있기 때문에 걸러내기 어렵고, 화자의 의도를 정확하게 파악할 수 없기 때문에 더더욱 어려워진다.
AI의 윤리적 문제 해결에 대한 노력
AITRICS에서는 챗봇이나 여러 AI들의 차별, 혐오 발언을 막기 위해 Safety Classifier 기술을 개발했다. 이 기술은 챗봇이 생성한 답이나 사용자가 쓴 질문이 부적절한 언어인지 분류하고 차단하는 기능을 한다. 부적절한 메시지는 안전한 언어로 교체되어 발신된다.
AI에게 더 높은 신뢰도를 얻을 때까지는 더 오랜 시간이 걸릴 것이다. 하지만 현재 우리가 해결해야 하는 윤리적 문제를 잘 해결하는 것이 중요하다. AI를 사용하는 것은 매우 편리하지만, 그에 따르는 부작용과 불편함도 더 많아지는 법이다.
AI 신뢰성을 위한 법과 제도
AI의 신뢰성을 높이기 위해 각국에서는 다양한 법과 제도를 도입하고 있다. 유럽연합은 AI의 윤리적 사용을 보장하기 위해 AI 법안(AI Act)을 제정하고 있으며, 미국 역시 AI 윤리 가이드라인을 마련하고 있다.
AI가 우리 삶에 깊숙이 들어옴에 따라, 우리는 AI가 제공하는 정보와 대화를 신뢰할 수 있도록 지속적인 노력이 필요하다. 기술의 발전이 인간에게 진정한 도움이 되기 위해서는 윤리적 문제를 해결하고, 투명하고 책임 있는 AI 사용 문화를 정착시켜야 한다.
출처=Unsplash
저작권자 © 밸류체인타임스 무단전재 및 재배포 금지
[밸류체인타임스 = 최한영 칼럼니스트]