자율주행의 안정성과 법률적 책임
2018년 자율주행을 시범 운영하던 우버 차량이 애리조나에서 보행자를 치어 사망하게 한 사건이 있었다. 이 사건은 자율주행차의 안전성과 관련된 법률적 책임 문제를 부각시켰다. 바스케스의 변호사는 우버가 자율주행 시험을 하고 있었기 때문에 이 사고의 책임을 일부 부담해야 한다고 주장했다. 하지만 검찰은 우버를 기소하지 않았다.
NTSB는 "우버가 차량에 장착한 소프트웨어가 보행자를 감지하지 못했고, 운전자가 안일하게 자율주행에 의존하는 등의 잘못을 포함한 우버 측의 책임도 있다"라고 지적했다. 이는 자율주행 기술의 안전성과 법적 책임에 대한 중요한 논쟁을 불러일으켰다.
법적 판결에 활용되는 AI 컴파스의 투명성과 공정성
미국의 일부 법원에서는 범죄자의 재범 가능성을 예측하기 위해 AI 컴파스(Compas)를 사용했다. 컴파스는 체포 직후 피의자에게 실시한 설문조사를 바탕으로 재범 위험성을 점수화해 제시하는 인공지능으로, 실제 판결에 참고되고 있다. 사실적 근거를 기반으로 편향성(Bias)을 띠지 않도록 신뢰할 수 있는 인공지능으로 활용되고 있다.
그러나 프로퍼블리카(ProPublica)의 조사에 따르면, 컴파스는 아프리카계 미국인에게 불리하게 작용된다는 사실이 밝혀졌다. 이 사건으로 AI 알고리즘의 투명성과 공정성 문제를 제기하며, 알고리즘 편향을 방지하기 위한 법적 규제의 필요성을 강조하는 사건이 됐다.
다수의 사람들이 딥페이크(Deepfake) 기술을 이용해 유명인의 얼굴을 합성하고 가짜 영상들을 인터넷에 유포해 명예훼손, 사생활 침해, 허위 사실 유포 등의 문제를 일으켰다. 딥페이크란 인공지능 기술인 딥러닝(Deep Learning)과 ‘가짜'를 의미하는 단어인 페이크(Fake)의 합성어로, 인공지능 기술을 활용해 창작물을 만들 때 실제 진위 여부를 가리기 어려운 가짜 이미지나 영상물의 의미한다.
이는 명예훼손, 사생활 침해, 허위 사실 유포 등의 법적 문제를 초래했다. 2018년에는 유명 배우의 얼굴을 합성한 음란물이 유포되거나 대통령의 얼굴을 합성해 거짓된 정보를 유포했다. 딥페이크에 대한 구체적인 법적 규제가 필요하다. 한국에서 딥페이크를 이용해 영상을 만들고 유포하면, 징역 최대 5년, 벌금 5천만 원 정도로 처벌받는다.
AI 창작물의 불투명한 원저작자 법적 기준
2018년, 프랑스 예술가 오비우스가 AI를 이용해 '에드몽 드 벨라미' 초상화를 그렸으며, 이 작품은 크리스티 경매에서 약 43만 2천 달러에 판매됐다. AI가 제작한 작품을 예술 작품으로 치부할지, 저작권을 누구에게 귀속시킬 것인지에 대한 법적 기준이 명확하지 않다.
AI를 활용한 사례는 많지만 악용 사례가 증가하고 있으며, AI가 법을 어기면 누가 책임을 질 것인지에 대한 명확한 법률이 존재하지 않는다. AI 평균 사용량이 증가할 미래를 위해 지금부터 법안을 통과시키고 규정하는 것이 중요하다. 이는 AI의 책임을 명확히 하고, 법적 안정성을 확보하는 데 필수적이다.
앞으로 AI 기술이 발전함에 따라 발생할 수 있는 다양한 법적 문제들을 사전에 대비하기 위해 정부와 관련 기관들은 적극적으로 규제와 법안을 마련해야 할 것이다. 이는 AI 기술이 사회에 긍정적인 영향을 미칠 수 있도록 하는 중요한 단계다.
저작권자 © 밸류체인타임스 무단전재 및 재배포 금지
[밸류체인타임스 = 최한영 칼럼니스트]
[밸류체인타임스 = 최한영 칼럼니스트] AI는 우리의 일상을 편하게 만들었지만, 그로 인한 문제의 책임이 누구에게 있는지에 대한 논의는 여전히 명확하지 않다. 법률적 문제에서 AI 역할과 책임에 대해 아직도 명확한 답을 찾지 못했다. AI가 만들어낸 실수는 누가 책임져야 할까?
출처=Pexels
자율주행의 안정성과 법률적 책임
2018년 자율주행을 시범 운영하던 우버 차량이 애리조나에서 보행자를 치어 사망하게 한 사건이 있었다. 이 사건은 자율주행차의 안전성과 관련된 법률적 책임 문제를 부각시켰다. 바스케스의 변호사는 우버가 자율주행 시험을 하고 있었기 때문에 이 사고의 책임을 일부 부담해야 한다고 주장했다. 하지만 검찰은 우버를 기소하지 않았다.
NTSB는 "우버가 차량에 장착한 소프트웨어가 보행자를 감지하지 못했고, 운전자가 안일하게 자율주행에 의존하는 등의 잘못을 포함한 우버 측의 책임도 있다"라고 지적했다. 이는 자율주행 기술의 안전성과 법적 책임에 대한 중요한 논쟁을 불러일으켰다.
법적 판결에 활용되는 AI 컴파스의 투명성과 공정성
미국의 일부 법원에서는 범죄자의 재범 가능성을 예측하기 위해 AI 컴파스(Compas)를 사용했다. 컴파스는 체포 직후 피의자에게 실시한 설문조사를 바탕으로 재범 위험성을 점수화해 제시하는 인공지능으로, 실제 판결에 참고되고 있다. 사실적 근거를 기반으로 편향성(Bias)을 띠지 않도록 신뢰할 수 있는 인공지능으로 활용되고 있다.
그러나 프로퍼블리카(ProPublica)의 조사에 따르면, 컴파스는 아프리카계 미국인에게 불리하게 작용된다는 사실이 밝혀졌다. 이 사건으로 AI 알고리즘의 투명성과 공정성 문제를 제기하며, 알고리즘 편향을 방지하기 위한 법적 규제의 필요성을 강조하는 사건이 됐다.
다수의 사람들이 딥페이크(Deepfake) 기술을 이용해 유명인의 얼굴을 합성하고 가짜 영상들을 인터넷에 유포해 명예훼손, 사생활 침해, 허위 사실 유포 등의 문제를 일으켰다. 딥페이크란 인공지능 기술인 딥러닝(Deep Learning)과 ‘가짜'를 의미하는 단어인 페이크(Fake)의 합성어로, 인공지능 기술을 활용해 창작물을 만들 때 실제 진위 여부를 가리기 어려운 가짜 이미지나 영상물의 의미한다.
이는 명예훼손, 사생활 침해, 허위 사실 유포 등의 법적 문제를 초래했다. 2018년에는 유명 배우의 얼굴을 합성한 음란물이 유포되거나 대통령의 얼굴을 합성해 거짓된 정보를 유포했다. 딥페이크에 대한 구체적인 법적 규제가 필요하다. 한국에서 딥페이크를 이용해 영상을 만들고 유포하면, 징역 최대 5년, 벌금 5천만 원 정도로 처벌받는다.
AI 창작물의 불투명한 원저작자 법적 기준
2018년, 프랑스 예술가 오비우스가 AI를 이용해 '에드몽 드 벨라미' 초상화를 그렸으며, 이 작품은 크리스티 경매에서 약 43만 2천 달러에 판매됐다. AI가 제작한 작품을 예술 작품으로 치부할지, 저작권을 누구에게 귀속시킬 것인지에 대한 법적 기준이 명확하지 않다.
출처=Wikimedia Commons
AI를 활용한 사례는 많지만 악용 사례가 증가하고 있으며, AI가 법을 어기면 누가 책임을 질 것인지에 대한 명확한 법률이 존재하지 않는다. AI 평균 사용량이 증가할 미래를 위해 지금부터 법안을 통과시키고 규정하는 것이 중요하다. 이는 AI의 책임을 명확히 하고, 법적 안정성을 확보하는 데 필수적이다.
앞으로 AI 기술이 발전함에 따라 발생할 수 있는 다양한 법적 문제들을 사전에 대비하기 위해 정부와 관련 기관들은 적극적으로 규제와 법안을 마련해야 할 것이다. 이는 AI 기술이 사회에 긍정적인 영향을 미칠 수 있도록 하는 중요한 단계다.
저작권자 © 밸류체인타임스 무단전재 및 재배포 금지
[밸류체인타임스 = 최한영 칼럼니스트]