우크라이나 드론 전쟁, 로봇 3원칙에 대한 딜레마를 겪다 | 밸류체인타임스

이아림 칼럼니스트
2025-06-07
조회수 1014

[밸류체인타임스 = 이아림 칼럼니스트] 최근 우크라이나의 '거미집' 작전이 성공적으로 수행되면서, 전략의 핵심이었던 드론이 전쟁의 중요한 자원이자 결정적 변수로 부각되고 있다. 미국 일간지 월스트리트저널(WSJ)은 3일 우크라이나가 1일 드론을 활용해 러시아 본토 깊숙한 곳에 위치한 공군 기지를 타격했다고 보도했다. 이른바 '거미집' 작전으로 불리는 이번 공세는 전 세계에 충격을 안겼다. 


우크라이나는 약 2,000달러(한화 약 270만 원) 상당의 드론 117대를 투입해, 4개 공군기지에 배치된 총 70억 달러(약 9조 6,390억 원) 규모의 전략 폭격기 41대를 손상시켰다고 주장했다. 본토 깊숙이 밀반입한 드론으로 러시아 전략 자산에 타격을 입힌 이 작전은, 전쟁의 판도를 바꿀 수 있는 새로운 국면을 예고하고 있다. 이와 같은 드론의 활약에 로봇을 활용한 '무인 부대'가 새로운 전쟁의 형태를 드러내고 있다.


(사진=Unsplash)


저비용 고효율이라는 드론의 특성은 양국 모두에게 매력적이다. 이에 따라 드론의 투입이 급증하고 있으며, 단순한 정찰용을 넘어 공격형 무기 체계로 진화하고 있다. 우크라이나는 공격뿐 아니라, 이에 대응할 방어 기술도 발전시키고 있다. 대표적인 사례가 AI 기반 자동화 포탑 ‘스카이 센티넬’이다. 최근 실전 배치된 이 시스템은 러시아의 샤헤드 드론 6대 이상을 성공적으로 격추시키며 주목받고 있다. 


미국 CNN은 "우크라이나의 드론 전략은 러시아의 취약점을 드러내며 전쟁 서사의 전환점을 제시했다"라고 평가했다. "거미집 작전은 마치 다윗이 골리앗과 싸우는 새로운 방식을 보여준 사례"라고 보도했다. 또한 "러시아는 군사 자원과 최전방 병력, 전략적 인내력, 재정적 우위라는 카드를 쥐고 있지만, 우크라이나는 정밀 타격을 통해 그 거대한 군사력의 허상을 드러냈다”라고 강조했다.


다만, 이번 작전의 피해 규모는 아직 독립적 검증을 거치지 못했다. 미국 제임스 마틴 비확산연구센터(CNS)의 샘 라이어 연구원은 WSJ와의 인터뷰에서 "우크라이나가 밝힌 피해 수치는 아직 구체적인 근거로 뒷받침되지 않았지만, 러시아 전략 폭격 부대에 상당한 타격을 입힌 것은 분명하다”라고 평가했다. 


로봇 기술이 전쟁의 중심까지 깊숙이 침투하면서, 아이작 아시모프가 제시한 ‘로봇 3원칙’은 단순한 공상과학 설정이 아닌, 현실적인 윤리적 딜레마로 떠오르고 있다. 아시모프가 제안한 이 3원칙은 ▲로봇은 인간에게 해를 끼쳐서는 안 된다, ▲로봇은 인간에게 해를 끼치지 않는 한 인간의 명령에 복종해야 한다, ▲로봇은 첫 번째와 두 번째 원칙에 위배되지 않는 한 자신을 보호해야 한다는 내용을 담고 있다. 본래 이 원칙은 로봇이 인간에게 위협이 되지 않도록 하기 위한 도덕적 기준으로 제시된 것이다.


전쟁이라는 특수한 상황에서 이 원칙들은 현실과 이상 사이의 깊은 간극을 드러낸다. 드론을 포함한 무인 병기는 자국민의 생명을 보호하기 위한 수단으로 쓰이지만, 결과적으로는 적국의 시민과 병사에게 피해를 입히는 도구가 된다. 이는 로봇이 인간에게 해를 끼치지 말아야 한다는 가장 기본적인 원칙과 정면으로 충돌한다.


점점 더 많은 국가들이 ‘무인 부대’를 조직하고 기술을 강화하고 있다. 이로 인해 전쟁은 겉으로는 로봇 간의 충돌처럼 보이지만, 실상은 로봇이 인간을 죽이는 방식으로 바뀌고 있다.



‘윤리’는 어디에? AI 무기의 책임은 누구에게 있는가

영국 출신의 노벨화학상 수상자이자, 국내에서는 ‘알파고의 아버지’로 알려진 데미스 허사비스 구글 딥마인드 CEO는 지난 4일 CNN과의 인터뷰에서 “일자리 감소보다 더 시급한 문제는 인간 수준의 범용 인공지능(AGI)이 악의적으로 사용되는 것”이라고 경고했다. 그는 “강력한 시스템에 누가 접근하는지를 관리하는 것이 향후 AI 시대의 가장 중요한 과제가 될 것”이라고 지적했다.


(사진=Unsplash)


가족이나 자국민의 죽음이 눈앞에 닥친 상황에서, 국제법도 아닌 일종의 ‘도덕법’인 로봇 3원칙을 끝까지 지킬 수 있는 사람이 과연 얼마나 될까? 이처럼 극단적인 상황에서는 ‘나쁜 행위자’를 명확히 구분하기도 어렵기 때문에, 전쟁과 같은 국제적 분쟁에서 그 기준은 필연적으로 모호할 수밖에 없다. 더욱이, 전쟁 중 로봇 기술을 활용함으로써 병사의 생명을 보호해야 한다는 주장 역시 힘을 얻고 있는 현실에서, 윤리와 효율 사이의 충돌은 쉽게 해소되지 않는다.



특히 드론과 같은 자율 무기의 활용 여부를 결정하는 과정에서는 다양한 윤리적 쟁점이 끊임없이 제기된다. 고성능 AI가 탑재된 드론이 스스로 공격 대상을 판단하고 실행하는 경우, 그 책임은 누구에게 있는가? 그 판단을 가능하게 한 알고리즘인가, 데이터를 설계한 개발자인가, 아니면 궁극적으로 드론 자체인가? 


이와 더불어, 공격 과정에서 민간인 피해가 발생했을 때 어떤 방식으로 책임을 묻고 보상할 것인지에 대해서도 국제법은 아직 명확한 기준을 제시하지 못하고 있다. 규제가 불분명하고 느슨할수록 피해 규모는 갈수록 커질 수밖에 없다. 따라서 인공지능 기술이 전쟁에 활용되는 지금, 우리는 그 기술을 제대로 통제하기 위한 단호하고 구체적인 규제를 마련해야 할 시점에 와 있다.






Copyright © 밸류체인타임스. All rights reserved. 무단 전재 및 재배포, AI학습 이용 금지.

[밸류체인타임스 = 이아림 칼럼니스트]

0

성경 속 예술가들 | 밸류체인타임스
황지민 인재기자 2025-06-13

POST NEWS



경기도 부천시 삼작로108번길 48, 201호

대표전화 02 6083 1337 ㅣ팩스 02 6083 1338

대표메일 vctimes@naver.com


법인명 (주)밸류체인홀딩스

제호 밸류체인타임스

등록번호 아53081

등록일 2021-12-01

발행일 2021-12-01 

발행인 김진준 l 편집인 김유진 l 청소년보호책임자 김유진



© 2021 밸류체인타임스. All Right Reserved.