밀리터리 관련 보도 및 소식이 올라오는 게시판입니다.
기타

바이든, 중국과 AI 위험과 안전 대화 개시, 핵 C2 집중 가능성 높을까?

폴라리스 폴라리스 39

0

0
출처 https://breakingdefense.com/2023/11/bide...ely-focus/

조 바이든 미국 대통령과 시진핑 중국 국가주석의 공개 회담 이후 바이든은 3가지 주요 합의 사항을 발표했다. 많은 초점은 양측이 밀 대 밀 통신과 마약 퇴치 협력(특히 펜타닐에 반대)을 재개하는 것에 집중될 것이지만, 세 번째 계획은 미-중 의제의 새로운 항목, 즉 인공지능으로 두드러졌다.


"세 번째로," 대통령은 정상회담 후 기자회견에서 "우리는 인공지능과 관련된 위험과 안전 문제를 논의하기 위해 우리의 전문가들을 모을 것이다. 내가 가는 거의 모든 곳에서 나와 함께 전 세계를 여행하는 많은 여러분들이 알고 있듯이, 모든 주요 지도자들은 인공지능의 영향에 대해 이야기하기를 원한다. 이것들은 무엇이 유용하고 무엇이 유용하지 않지만, 위험하고 무엇이 허용 가능한지를 결정하기 위한 올바른 방향의 가시적인 단계들이다."


펜타닐, 대만, 가자에 초점을 맞춘 기자회견에서 바이든은 AI 계획에 대해 자세히 언급하지 않았다. 그러나 행정부는 이 주제에 대한 포괄적인 행정 명령으로 AI를 서명 문제로 만들었을 뿐만 아니라 특히 AI의 군사적 사용에 대한 글로벌 규범을 강력하게 추진해 왔다.


게다가 중국인들은 특히 핵무기를 위한 인공지능의 명령과 통제 시스템을 포기하는 것에 관해 그들이 수용적인 신호를 보여왔다. 인공지능과 핵무기의 관계가 바이든의 발언이나 백악관의 낭독으로 명확하게 윤곽이 드러나지는 않았지만, 전문가들은 정상회담에 앞서 브레이킹 디펜스에 그것이 미국의 "보행적인" 도전이라고 칭한 워싱턴과 미국 사이의 합의의 핵심 지점이 될 수 있다고 말했다.


현재 특별 경쟁 연구 프로젝트의 전 국가 및 NSC 직원인 조 왕은 계속되는 긴장 상황을 고려할 때, "나는 우리가 중국과 정말로 합의할 것이라고 생각한다."라고 말했다. 그와 다른 전문가들은 바이든의 발표에 앞서 가진 인터뷰에서 브레이킹 디펜스와의 인터뷰에서 전문가들이 "핵 C2"라고 부르는 것이 이상적인 후보라고 말했다. "아무도 인공지능이 핵무기를 통제하는 것을 보고 싶어하지 않습니다, 그렇죠? 마치, 가장 미친 독재자조차도 아마도 동의할 수 있을 것입니다."


보니 글레이저 독일 마셜 펀드 인도태평양 프로그램 책임자는 "중국은 AI에 대한 규칙과 규범을 정하는 논의에 참여하는 것에 관심을 표시했고, 우리는 그것을 환영해야 한다"고 말했다. 그녀는 정상회담 전 브레이킹 디펜스와의 인터뷰에서 "백악관은 핵무기의 지휘와 통제에 있어서 AI의 역할을 제한하는 것에 중국을 끌어들이는 데 관심이 있다"고 말했다


금지인가 아니면 규범인가?


사우스차이나모닝포스트(SCMP)가 25일 익명의 소식통을 인용해 "조 바이든 대통령과 시진핑(習近平) 국가주석이 드론 등 자율무기와 핵탄두 통제·배치에 인공지능(AI) 사용 금지를 약속할 태세"라고 보도한 이후 모종의 공동성명에 대한 기대감이 커졌다


"금지"라는 단어는 전문가들의 눈살을 찌푸리게 했는데, 그 이유는 중국이나 미국이 인공지능에 대한 그들의 행동의 자유에 대한 구속력 있는 제한을 받아들일 징후가 없기 때문이다. (사실, 미국 법은 거의 틀림없이 대통령이 의회 없이 그러한 약속을 하는 것을 막는다.) 다른 보도들은 단순히 "중국은 인공지능에 대한 확장된 대화를 추구하고 있다"고 제안했고, APEC 주재 미국 대사인 매트 머레이는 정상회담 전 언론 브리핑에서 인공지능에 대한 "합의"를 기대하지 않는다고 말했다.

카네기 기금의 학자인 퉁자오는 바이든 대통령의 기자회견에 앞서 브레이킹 디펜스에 보낸 이메일에서 "AI와 관련해 공식적인 합의를 도출한다는 측면에서 양측이 아직 거기에 있지 않을 수 있다"고 말했다.


이것은 비단 미중만의 문제가 아니다. 지난 9개월 동안, 미국은 무인기와 같은 자율 무기뿐만 아니라, 정보 분석 알고리즘으로부터 물류 소프트웨어에 이르기까지, 인공지능의 군사적 사용에 관한 자발적인 국제 규범을 향해 추진력을 키워왔다. 이 접근법은 많은 평화 운동가들과 비동맹국들이 "살인 로봇"에 대한 구속력 있는 금지를 요구하는 것을 막으려 하고, 오히려 미국과 그 동맹국들이 광범위하게 적용 가능하고 빠르게 진화하는 기술의 "책임 있는" 사용을 모색할 수 있는 여지를 남긴다.


미국의 원투펀치는 2월에 나왔다. 그 달 초, 국방부는 군사 인공지능과 자율 시스템에 대한 정책을 대대적으로 개편했다. 그 다음 주 헤이그에서 보니 젠킨스 국무부 군비통제 담당 대사는 미국의 국제적 채택 접근법을 일반화한 "인공지능과 자율성의 책임 있는 군사적 이용에 관한 정치적 선언"을 발표했다. 2월부터 미국은 호주, 영국, 프랑스, 독일, 한국과 같은 핵심 동맹국부터 헝가리, 리비아, 튀르키예와 같은 지정학적 문제 어린이에 이르기까지 45개국이 정치적 선언을 지지했다.


당연히 중국은 미국 주도의 접근 방식에 서명하지 않았다. 자오 대변인은 "중국의 외교 전략은 여전히 특히 군사 분야에서 미래의 인공지능 통치 기준을 설정하려는 미국의 노력과 경쟁하고 균형을 맞추는 데 초점을 맞추고 있다"고 말했다. "중국은 새로운 군사 기술을 관리하는 데 있어 '책임감'은 객관적인 명확성이 결여된 정치적으로 비난 받는 개념이라고 주장하면서 '책임감' 관행을 승인하는 것을 종종 거부한다."


그러나 외교에서, 어느 정도의 모호성은 버그가 아니라 특징이 될 수 있다. "정치 선언은 구속력이 없기 때문에 우리에게 약간의 여지를 준다고 생각합니다"라고 Wang은 말했다.


그러나 광범위한 자동화 무기를 허용하는 그런 종류의 "위글방"이 바로 활동가들이 예방하기 위해 구속력 있는 금지를 추구하는 것이다.


국제운동단체 '스톱 킬러로봇스'의 캐서린 코놀리 수석연구원은 '브레이킹 디펜스'와의 인터뷰에서 "우리는 이제 미국이 '치명적인 자율무기 체계'를 제한하는 '법적 수단에 대한 명확하고 강력한 지원'으로 나아가는 것을 보고 싶다"고 말했다. 이어 "우리는 가이드라인과 정치적 선언이 충분하지 않다고 생각하고, 대다수의 주들도 그것이 충분하지 않다고 생각한다"고 말했다


'킬러 로봇'에 대한 공포


새로운 국제법을 향한 노력은 유엔에 의해 소집된 정부 전문가 그룹이 지속적으로 합의에 도달하지 못하고 모든 주에 거부권을 부여하는 제네바 절차가 요구하는 10년 동안의 교착 상태에 의해 방해를 받아왔다.


그래서 반 AI 무기 운동은 제네바의 머리를 넘어 뉴욕으로 가서 유엔 총회에 결의안 초안을 제안했다. 오스트리아가 도입한 결의안 [PDF]는 실패할 것이 확실했던 즉각적인 금지를 요구하는 대신, 단순히 "사무총장에게 회원국들의 의견을 구하도록 요청하고, 산업체, 학계, 그리고 비정부 기구들이 보고서를 제출하고, 공식적으로 그 문제를 유엔 의제에 올린다.


결의안은 164 대 5로 미국이 찬성하고 러시아가 반대하는 가운데 통과됐다. 기권 8명 가운데 중국이 포함됐다.


코놀리는 "미국이 대다수의 주에 찬성표를 던진 것은 대단한 일"이라며 "중국이 이전에 법적 수단에 대한 지지에 주목했다는 점에서 기권한 것은 약간 실망스러운 일이지만, 결의안에는 특성과 정의 측면에서 동의하지 않는 부분이 있었다"고 말했다


사실, 중국정부는 '자율무기'라는 말을 독특하게 좁은 의미로 사용하는 경향이 있는데, 이 '자율무기'라는 말은, 한 번 발사되면 "인간의 감독을 전혀 받지 않으며, 종료될 수도 없다" (즉, 차단될 수도 없다)는 제도들만을 세는 말이다. 그렇기 때문에 중국은 자국이 '자율무기'를 지지한다고 주장하면서도, 실제로는 어떤 군대든 구축하려고 할 수도 있는 자치체제들의 대다수를 배제할 수 있게 된 것이다.


자오 대변인은 '브레이킹 디펜스'와의 인터뷰에서 "중국은 군사 AI를 규제하는데 있어 유엔총회의 역할을 강화하는데 주저하는 것 같다"고 말했다. 자오 대변인은 "중국정부는 중국정부와 모스크바, 그리고 워싱턴과 그 밖의 모든 주 정부에 사실상 거부권을 주는 제네바의 '정부전문가그룹'을 통해 일하기를 선호하고 있다.


미국 자체는 역사적으로 제네바 절차를 선호해왔고 유엔 결의안을 지지했음에도 불구하고 "GGE를 약화시켜서는 안 된다"고 경고했다고 CSIS 학자인 제임스 루이스가 언급했다. 그는 브레이킹 디펜스에 보낸 이메일에서 "러시아인들이 반대표를 던졌을 때 말한 것과 거의 같다"고 언급했다. "그것은 군중과 함께함으로써 우리가 한 번 더 잘 해냈을 뿐이다."


루이스씨는 "구속력 있는 법은 카드에 없다"면서도 "그러나 미국이 영국, 프랑스, 그리고 아마도 EU와 같은 다른 국가들을 포괄적인 노력으로 끌어들일 수 있다면 규범에 대한 진전이 있을 수 있다"고 덧붙였다


지금까지 구속력이 없는 정치적 선언에 대한 국제적 논의는 사실상 미국이 핵무기에 대한 인공지능 통제를 포기하는 통로를 제거함으로써 그것을 물타기로 이끌었다.


젠킨스는 2일 "미국이 프랑스, 영국과 함께 '핵무기 사용과 관련한 주권적 결정을 알리고 실행하는 데 중요한 모든 행동에 대해 인간의 통제와 관여를 유지하기로' 약속한 내용을 담은 성명서가 2월 버전에 포함됐다"고 밝혔다. 이어 "우리가 다른 사람들과 논의한 결과, 많은 사람들이 이 보증서를 환영했지만, AI와 핵무기의 연결고리는 훨씬 더 많은 논의가 필요한 분야라는 것이 분명해졌다"며 "우리는 이 성명서가 미국이 지지하는 데 걸림돌이 되지 않도록 이를 삭제했다"고 말했다


1980년대 터미네이터와 워게임스에 의해 악명이 높았던 중대한 공상과학 악몽 시나리오들을 고려할 때, 그러한 조항이 일부 국가들에게 너무 많다는 것은 이 문제에 대해 어떤 합의도 이끌어내기가 얼마나 어려운지를 보여준다. 핵무기에 대한 인간의 통제권을 유지하기로 한 합의는 "최하의 결실"인 것 같다고 왕은 말했다.


왕 부장은 "핵무기에 관해서는 그런 종류의 이해관계가 있을 수 있다"며 "더 많은 재래식 무기에 관해서는 그 부분이 좀 더 모호해지는 것 같다"고 말했다

신고
0




    


댓글 쓰기 권한이 없습니다. 로그인

취소 댓글 등록

신고

"님의 댓글"

이 댓글을 신고하시겠습니까?

댓글 삭제

"님의 댓글"

삭제하시겠습니까?

목록
번호 분류 제목 글쓴이 날짜 추천 조회
공지 2023년 하반기 개편 안내 (레벨 시스템 추가) 9 Mi_Dork 23.07.13.09:07 +1 4361
공지 밀리돔 후원 요청 (2023-06-23) 28 운영자 14.01.24.20:42 +13 39210
3719 기타
normal
폴라리스 23.11.22.22:49 0 34
3718 기타
normal
폴라리스 24.04.05.13:47 0 34
3717 기타
normal
폴라리스 24.02.27.20:41 0 35
3716 기타
normal
폴라리스 23.01.30.00:04 0 36
3715 기타
normal
폴라리스 23.03.27.18:43 0 36
3714 기타
normal
폴라리스 23.06.28.23:14 0 36
3713 기타
normal
폴라리스 23.09.01.19:43 0 36
3712 기타
normal
폴라리스 24.02.28.22:21 0 36
3711 기타
normal
폴라리스 24.03.05.18:37 0 36
3710 기타
normal
폴라리스 24.03.13.13:14 0 36
3709 기타
normal
폴라리스 24.04.18.17:07 0 36
3708 기타
normal
폴라리스 24.04.23.01:42 0 36
3707 기타
normal
폴라리스 24.04.27.22:56 0 36
3706 기타
normal
폴라리스 23.12.20.00:48 0 37
3705 기타
normal
폴라리스 24.03.05.18:35 0 37
3704 기타
normal
폴라리스 24.03.11.21:01 0 37
3703 기타
normal
폴라리스 24.04.12.15:30 0 37
3702 기타
normal
폴라리스 24.04.27.00:33 0 37
3701 기타
normal
폴라리스 24.03.23.20:32 0 38
3700 기타
normal
폴라리스 23.04.19.14:59 0 39

밀리돔 | milidom 의 저작물은 다음의 사이트 이용 약관 에 의거해 이용 가능합니다.
이 라이선스의 범위 이외의 이용허락은 운영진에게 문의 하시기 바랍니다.