밀리터리 관련 보도 및 소식이 올라오는 게시판입니다.
기타

미국, 자율 무기 관련 유엔 회의에서 금지가 아닌 지침 추진

폴라리스 폴라리스 55

0

0
출처 https://breakingdefense.com/2023/03/not-...s-weapons/

월요일, 전 세계 정부 전문가들이 다시 한 번 제네바에 모여 자율 무기의 윤리와 합법성에 대해 토론할 예정이다.

 

무기 통제자들에게 중요한 질문이다: 군사화된 AI 및 기타 자율 시스템의 가장 큰 위험은 무엇일까요? 많은 평화 운동가들과 중립국들은 대중문화의 터미네이터나 영화 슬러터봇의 군집 암살 드론과 같이 통제 불능의 살인 기계에 초점을 맞추고 있다. 그러나 미국 관리와 전문가를 포함한 다른 사람들은 민간인을 테러리스트로 오인하는 정보 분석 알고리즘, 병원을 군사 기지로 오인하는 알고리즘, 방아쇠를 당기는 사람이 있더라도 핵 선제공격용 과학 로켓과 같은 더 미묘한 것에 초점을 맞추는 경우가 많다.


제네바에서 열리는 유엔 정부 전문가 그룹 회의가 적어도 일부 종류의 '치명적인 자율 무기 시스템'과 활동가들이 '킬러 로봇'이라고 부르는 것에 대한 구속력 있는 법적 금지의 토대를 마련하는 데 도움이 되기를 희망하는 움직임이 커지고 있으며, 이는 9년 동안 제네바 협상가들을 괴롭혀온 문제다. 지난주 코스타리카에서 열린 회의에서 거대 브라질부터 작은 트리니다드까지 33개 미주 국가들은 이미 지뢰와 집속탄을 금지하고 있는 것과 같은 "국제 법적 구속력 있는 수단"의 형태로 "새로운 금지와 규제가 시급히 필요하다"고 선언했다.


그러나 미국은 새로운 구속력 있는 조약이 아닌 자발적인 자제를 촉구하는 매우 다른 비전으로 반발할 것으로 예상되며, 올해는 과거 제네바 회의와 달리 2월 헤이그에서 열린 회의에서 보니 젠킨스 국무부 차관이 제시한 조치의 종류에 대한 자세한 윤곽을 제시할 것이다.


이번 주 GGE 소집을 앞두고 국무부 대변인은 Breaking Defense에 독점적으로 게재한 성명에서 미국의 접근 방식에 대해 자세히 설명했다.


본질적으로 미국은 공식적인 조약이 자동화된 무기 이외의 응용 분야에서 잘못된 알고리즘의 교활한 위험은 무시한 채, 실제로 조약을 준수하는 국가들의 합법적이고 심지어 생명을 구하는 군사 기술의 합법적인 적용을 방해할 것을 우려하고 있다. 대신 헤이그에서 발표된 미국의 선언은 인공지능에 초점을 맞추고 국방부 정책에 기반한 구속력이 없는 "모범 사례 및 원칙"을 제시하여 모든 군사적 인공지능 사용을 안내한다.


국무부 대변인은 "미국은 법적으로 구속력 있는 LAWS[치명적 자율 무기 시스템]에 대한 협상을 시작할 때가 아니라고 계속 믿고 있다"고 말했다. "정부 전문가 그룹(GGE)에서 국가들은 우리가 이야기하는 무기 시스템에 대한 기본적인 이견과 문제가 무엇인지에 대한 기본적인 이견이 계속 있는 것으로 보입니다."


자율 무기란 무엇인가


가장 핵심적인 질문은 가장 기본적인 질문입니다: 무엇이 자율 무기로 간주되는가?


정의가 너무 넓으면 사람이 밟으면 자동으로 폭발하는 구식 지뢰도 포함되며, 이는 사람의 결정이 필요 없기 때문입니다. 너무 좁게 정의하면 무자비한 로봇 폭주족만 포함될 수 있다: 특히 중국은 초당파적인 의회조사국의 표현을 빌리자면 "인간의 감독을 받지 않고 종료할 수 없는 무차별적이고 치명적인 시스템"(즉, 차단)으로 요약되는 독특하고 제한적인 정의를 제안했다. 그 사이에는 미 해군 이지스 및 육군 패트리어트 방공 시스템과 같은 모든 종류의 실제 무기가 있으며, 이미 컴퓨터가 자동으로 들어오는 위협을 식별하고, 표적을 선택하고, 요격기를 발사하여 인간 조종사(2003년 사건에서처럼 아군 조종사까지)를 잠재적으로 살해하는 자동 모드를 갖추고 있다. 그러나 협상가가 작업할 수 있는 합의된 정의는 없다.


국무부 대변인은 "서로의 이해와 목적에 근본적인 차이가 있는 법적 구속력이 있는 조약을 협상하려는 시도는 실패할 가능성이 높다"고 계속했다. 따라서 제네바의 GGE가 실질적인 진전을 이루려면 민간인에 대한 무차별 살상과 고의적 공격을 오랫동안 금지하고 지휘관의 명확한 책임을 요구하는 기존 국제법에 의해 자율 무기가 이미 어떻게 제한되는지 "명확히"하는 데 초점을 맞춰야한다고 그들은 주장했다. 미국과 호주, 영국, 캐나다, 일본, 한국 등 5개 동맹국의 2022년 제안[PDF]은 "그 작업의 기초"가 될 수 있다.


미국은 이러한 토대가 마련되어야만 GGE가 공식 조약을 "책임감있게 개발"할 수 있다고 주장한다. 따라서 대변인은 "법적 구속력이 있는 조약을 원하는 국가들은 중간 단계로만 조약에 참여하더라도 [미국과 동맹국의] 공동 제안을 지지해야 한다"고 말했다.

 

터미네이터 그 너머


미국은 조약이 시기상조이고 지나치게 제한적일 뿐만 아니라 그러한 접근 방식이 너무 협소할 것을 우려하고 있다. '치명적인 자율 무기 시스템'에 대한 구속력 있는 국제 조약은 군사적으로 AI를 사용하는 많은 사례, 어쩌면 대부분의 사례에 아무런 영향을 미치지 못할 것이기 때문이다. 예를 들어, 미국 국방부는 이미 정비 수요 예측, 차량 오프로드 주행, 인도주의적 구호 조직 등 다양한 비전투적 기능에 인공지능을 활용하기 위해 연구하고 있다.


미 국방부의 가장 야심찬 인공지능 기반 노력인 합동 전 영역 지휘 및 제어(Joint All Domain Command & Control)조차도 대부분의 정의에 따르면 '무기 시스템'이 아니다. 이 프로젝트의 목표는 AI와 자동화를 사용하여 육상, 해상, 공중, 우주, 사이버 공간의 센서 데이터를 종합하고, 주요 목표를 식별하고, 모든 군대에서 공격에 가장 적합한 무기를 선택하는 메타 네트워크를 구축하는 것이지만, 컴퓨터가 아닌 사람이 방아쇠를 당기는 것이다.


미 국방부 대변인은 Breaking Defense와의 인터뷰에서 "AI의 군사적 사용 문제는 단순히 무기 시스템에 AI와 자율성을 적용하는 것보다 더 광범위합니다."라고 말했다. 미국이 헤이그에서 발표한 정치 선언은 "군사적 맥락에서 AI와 자율성의 개발, 배치, 사용에서 책임감 있는 행동을 촉진하고 자율성을 보다 광범위하게 증진하는 데 목적이 있다"고 말했다. 이는 제네바에서 진행 중인 자율 무기라는 좁은 범위의 문제와 미국이 2022년 제네바 GGE에 제출한 6개국 공동 제안에 대한 협상을 강화하기 위한 것이다.


국방부 대변인은 속보 국방에 "AI 선언은 공동 제안을 대체하는 것이 아니라 보완하는 것입니다."라고 말했다. "AI 선언은 자율 무기 시스템이 아닌 AI와 자율성의 군사적 적용에 초점을 맞추고 있습니다. 우리는 각국이 이 두 가지 제안을 모두 지지하기를 희망합니다."


미국 관리들은 AI의 비무기 분야 적용이 어떻게 잘못될 수 있는지 자세히 설명하기를 꺼려한다. 하지만 법무부가 자율주행차가 보행자를 치어 숨지게 하고 ChatGPT가 사실을 '환각'하고 심지어 실제로 존재하지도 않는 문서를 출처로 삼는다고 말하는 시대에는 상상하기 어렵지 않다.


미국외교협회의 연구원 로렌 칸은 "금지 조치에 대한 많은 논의가 오로지 자율 무기에만 초점을 맞추고 있지만, 이러한 시스템은 아직 개발되지 않았습니다."라고 말한다. "오늘날 일어나고 있는 많은 애플리케이션을 다루고 있기 때문에 빌딩 블록, 신뢰 구축 조치... 거의 아기 단계가 필요합니다."


미국은 어떤 빌딩 블록을 제안하고 있나요? 헤이그의 정치적 선언은 본질적으로 지난 10년간의 국방부 정책 결정을 모든 국가가 적용할 수 있는 일반적 프레임워크로 요약한 것이다. "국방부 대변인은 Breaking Defense와의 인터뷰에서 "국방부의 AI 윤리 원칙, 책임 있는 AI 전략 및 실행 경로, AI 전략, 국방부 지침 3000.09를 포함하여 여러 기존 국방부 정책이 선언에 영향을 미쳤습니다."라고 말했다: 무기 체계의 자율성, 핵 태세 검토 등을 포함합니다."라고 말했다.


이 선언은 이러한 정책을 바탕으로 핵무기의 모든 측면에 대한 엄격한 "인간 통제 및 참여"(터미네이터의 악몽인 컴퓨터에게 발사 결정을 위임하지 않음), 초기 R&D부터 초기 배치, 후속 업데이트에 이르기까지 군사 AI의 모든 단계에서 엄격한 인간 감독, 테스트 및 검증(AI 알고리즘이 스스로 재작성하는 자기 수정을 포함) 등의 조치를 취할 것을 요구하고 있다. AI 시스템은 처음부터 임무를 명확하게 정의하고 최후의 수단으로 종료할 수 있어야 한다.


하지만 그것만으로는 충분하지 않다는 의견도 있다. 보다 적극적인 금지 조치를 주도하는 단체인 Stop Killer Robots는 헤이그에서의 미국 선언을 "미약하다", "상당한 후퇴"라고 비난하는 한편, 코스타리카 회의에서 제네바에서 수년간의 "교착 상태"를 우회하기 위한 방법으로 구속력 있는 조약을 촉구한 것을 높이 평가했다. (스톱 킬러 로봇은 거듭된 논평 요청에 응답하지 않았습니다.) 연합 단체인 무기통제협회는 미국의 선언을 "건설적이지만 부적절하다"고 말했다.


"이 선언은 규제되지 않은 군사적 AI 사용에 수반되는 수많은 위험을 강조하고 어떤 종류의 제한이 필요하다는 것을 인정하는 데 유용 할 수 있습니다."라고 ACA 이사회의 비서 인 Michael Klare는 Breaking Defense에 말했다. "자발적이든 의무적이든 모든 통제 시스템은 이 선언에 포함된 모든 문제를 해결해야 합니다."


클레어는 "그러나 원칙이 아무리 포괄적이고 칭찬할 만하다 해도 공식적인 규칙이나 규정을 구성하는 것은 아니므로 강제력이 없습니다."라고 경고했다. "즉, 미국을 포함한 모든 국가가 이 선언을 지지하고 원칙을 준수한다고 주장한 후 면책특권을 이용해 원칙을 위반할 수 있다는 뜻입니다."


따라서 핵심은 신뢰로 귀결된다. 미국과 그 동맹국들은 자신들이 제안한 자발적 원칙을 지킬까? 러시아와 중국은 아무리 많은 중립국들이 서명했다고 해도 어떤 종류의 법적 금지 조치도 준수할까? 이러한 근본적인 질문은 기계가 아닌 인간에 대한 신뢰성에 관한 것이다.
 

신고
0




    


댓글 쓰기 권한이 없습니다. 로그인

취소 댓글 등록

신고

"님의 댓글"

이 댓글을 신고하시겠습니까?

댓글 삭제

"님의 댓글"

삭제하시겠습니까?

목록
번호 분류 제목 글쓴이 날짜 추천 조회
공지 2023년 하반기 개편 안내 (레벨 시스템 추가) 9 Mi_Dork 23.07.13.09:07 +1 4271
공지 밀리돔 후원 요청 (2023-06-23) 28 운영자 14.01.24.20:42 +13 39115
26009 공중체계
normal
폴라리스 24.02.14.17:22 +1 54
26008 유도무기
normal
폴라리스 24.02.14.17:21 0 38
26007 유도무기
normal
폴라리스 24.02.14.17:20 0 91
26006 기타
normal
폴라리스 24.02.14.17:20 0 60
26005 육상체계
normal
폴라리스 24.02.14.17:19 0 88
26004 육상체계
normal
폴라리스 24.02.14.17:18 0 65
26003 공중체계
normal
폴라리스 24.02.14.17:17 0 38
26002 공중체계
normal
폴라리스 24.02.14.17:17 +1 70
26001 육상체계
normal
폴라리스 24.02.13.23:07 +1 129
26000 공중체계
normal
폴라리스 24.02.13.23:07 0 121
25999 공중체계
normal
폴라리스 24.02.13.23:06 0 99
25998 기타
normal
폴라리스 24.02.13.23:05 0 70
25997 기타
normal
폴라리스 24.02.13.23:04 0 95
25996 기타
normal
폴라리스 24.02.13.23:03 0 51
25995 유도무기
normal
폴라리스 24.02.13.23:03 0 106
25994 유도무기
normal
폴라리스 24.02.13.23:02 0 78
25993 공중체계
normal
폴라리스 24.02.13.23:02 0 550
25992 기타
normal
폴라리스 24.02.12.21:01 0 133
25991 기타
normal
폴라리스 24.02.12.21:00 0 97
25990 전략
normal
폴라리스 24.02.12.20:59 0 46

밀리돔 | milidom 의 저작물은 다음의 사이트 이용 약관 에 의거해 이용 가능합니다.
이 라이선스의 범위 이외의 이용허락은 운영진에게 문의 하시기 바랍니다.