밀리터리 관련 보도 및 소식이 올라오는 게시판입니다.
기타

AI 규제 당국은 전쟁의 과대 광고에 휩쓸릴 것을 우려

폴라리스 폴라리스 63

0

0
출처 https://www.defensenews.com/global/europ...e-of-wars/

전투기는 정면으로 상대방을 향해 돌진한다. 충돌 직전에는 회전하지만 상대방에게 치명타를 가하기 전에는 회전하지 않는다.


이런 위험한 작전은 아무리 숙련된 조종사라고 해도 무모할 것이다. 하지만 인공지능에게 그런 시뮬레이션 시나리오는 인간 조종사를 상대로 거의 100%의 킬률을 기록하며 가장 효과적인 개싸움 기술 중 하나를 보여준다.


전문가들은 디펜스뉴스와의 인터뷰에서 "우크라이나 분쟁으로 촉발된 전쟁혁명 속에서 자율적인 의사결정이 현대 전투를 빠르게 재편하고 있다"고 말했다.


누구를, 무엇을, 심지어 언제 겨냥할지를 스스로 결정할 수 있는 무기들이 군 무기고로 들어오고 있다. 전문가들은 통제되지 않는 군비경쟁이 대두되고 있으며, 전쟁이 너무 빨리 진행되어 인간이 따라잡을 수 없게 될 수도 있다고 우려해왔다.


비정부기구인 제임스 마틴 비확산 연구 센터의 선임 연구원인 나타샤 바제마는 특히 속도가 "미끄럽다"는 것을 증명할 수도 있다고 말했다. 전장에 대한 자율성이 강화되면서 갈등의 속도가 빨라지면서, 기계에 더 많은 기능을 위임할 유인이 더욱 강해질 수 있다.


"우리는 정말로 중국과 미국 사이의 전투 중에 누군가가 '잠깐, 우리는 기계가 그렇게 하도록 내버려 둘 수 없다'고 말할 것이라고 생각하는가?" 바제마는 그녀가 묘사한 전쟁의 매력이 기계 속도로 움직이는 것을 언급하며 물었다.


그녀는 "핵무기 경쟁 이후 우리가 봐온 가장 경쟁적인 우위 경쟁"이라고 덧붙였다.


우크라이나와 가자지구에서의 전투로 인해 무기에 대한 더 많은 자치권에 대한 욕구는 군사적 적용에 있어서 인공지능에 대한 제한에 대한 오랜 요구를 물거품이 되었다. 그러나 그것들은 여전히 존재한다.


오스트리아 외무부 군축·무기통제·비확산부 국장인 알렉산더 크멘트 대사는 방아쇠를 당기는 AI 지원 로봇의 시나리오를 진정한 '오펜하이머 모먼트'라고 평가했는데, 이는 1940년대 원자폭탄의 탄생을 빗댄 것이다.


오스트리아는 새로운 시대를 위한 전쟁 규칙의 초안을 마련하기 위해 세계 각국의 정부들을 테이블로 불러들이기 위한 국제적인 추진을 주도해 왔다.


지난 4월 말, 이 나라 정부는 비엔나의 그랜드 호프부르크 궁전에서 자율 무기 시스템에 관한 첫 번째 세계 회의를 주최했다. 크멘토는 이는 그의 예상을 뛰어넘었다고 말했다.


디펜스 뉴스와의 인터뷰에서 대사는 "준비 기간 동안 저는 가끔 참석에 대해 걱정했고, 방이 반쯤 비어있을 것이라고 생각했습니다"라고 회상했다. 대신 비엔나에는 144개국에서 온 1,000명 이상의 대표단이 있었다.


그는 "이 주제를 일종의 공상과학으로 보던 주들도 이제는 믿을 수 없을 정도로 시의적절한 것으로 인식하고 있다"고 말했다.


Kmentt에 따르면, 세계 주요 강대국들의 인수 없이는 거의 달성할 수 없지만, 세계 정치의 위계질서를 거부하는 국가들을 결합시키기 위해 사용되는 용어인 세계 남부의 많은 국가들이 현재 이 기술을 제한하는 데 관심이 있는 것으로 보인다.


의도하지 않은 결과


그들의 모든 군사적인 매력에도 불구하고, 인공지능이 가능한 무기들은 아직도 초기 단계에 있는 기술의 결함들과 함께 온다. 고급 무기 체계들을 둘러싼 문제들을 다루는 컨설팅 회사인 Looking Glass USA의 수석 연구원인 Zachary Kallenborn은 특히 기계 시각은 아직도 오류가 나기 쉽다고 말했다.


그는 "화소 하나면 폭격기와 개, 민간인과 전투원을 혼동하기에 충분하다"고 말했다.


전문가들은 앞으로 몇 년 동안 점점 더 정교한 능력을 갖춘 자율 무기들이 전장에서 점점 더 많이 나올 것으로 예상한다. 기술적인 사고가 없더라도, 이것은 오해의 위험을 높일 수 있다.


바제마는 예를 들어 드론의 일회용 성격이 더 공격적이거나 위험한 행동으로 이어질 수 있다고 말했다. 바제마는 자율주행 시스템을 요격하는 것은 승무원이 탄 비행기를 격추하는 것과는 다른 반응을 이끌어 낼 수도 있지만 정확하게 그 선이 어디에 해당하는지 판단하기는 어렵다고 말했다.


인공지능을 향한 경쟁은 그녀가 "터미네이터 문제"라고 부르는 것에 의해 지배된다 - 만약 한 주가 그것을 가지고 있다면, 모두 그들이 안전하다고 느끼기 위해 그것이 필요하다고 믿는다 - 그 기술을 규제하는 것을 매우 어렵게 만드는 환경.


게다가 오늘날의 지정학적 기후는 다자간 군비통제에 그다지 순응적이지 않다고 그녀는 덧붙였다.


그런 가능성을 감안할 때, Kmentt는 단지 타협을 찾고 있을 뿐이라고 말했다.


그는 "이 주제에 대해 보편적인 합의가 이루어지지 않을 것이 분명하다"고 지적했다. "이것이 존재하는 곳에는 거의 문제가 없으며, 특정 국가들은 국제법을 개발하는 데 관심이 없는 것 같다. 그래서 우리는 그것을 받아들여야 하며, 대신 이러한 규칙을 개발하는 데 관심이 있는 국가들과 협력해야 한다."


하지만 그는 성공할 가능성에 대해 다소 비관적인 입장임을 인정했다.


크멘트는 "이들 무기는 주로 무력 충돌의 미래를 규정할 것이며, 결과적으로 이들 무기를 원하는 전 세계 군의 목소리는 점점 더 커질 것"이라고 전망했다.


현재로서는, 2026년이라는 목표일이 AI 비확산 옹호자들의 공동체에 있어서 커 보인다; 그것은 안토니우 구테흐스 유엔 사무총장의 말대로, "자율 무기 시스템에 대한 명확한 금지와 제한"을 설정하는 유엔의 의무를 의미한다.


크멘트는 "지금까지 어려운 지정학적 상황 때문에 무언가를 이루려는 정치적 의지가 부족하다"고 말했다.


그는 "2026년 목표는 임의의 날짜가 아니다"라며 "그때까지 어떤 것도 성공하지 못했다면 예방 조치를 위한 창구는 닫힌 것"이라고 덧붙였다

신고
0




    


댓글 쓰기 권한이 없습니다. 로그인

취소 댓글 등록

신고

"님의 댓글"

이 댓글을 신고하시겠습니까?

댓글 삭제

"님의 댓글"

삭제하시겠습니까?

목록
번호 분류 제목 글쓴이 날짜 추천 조회
공지 2023년 하반기 개편 안내 (레벨 시스템 추가) 9 Mi_Dork 23.07.13.09:07 +1 6337
공지 밀리돔 후원 요청 (2023-06-23) 28 운영자 14.01.24.20:42 +13 41315
3896 기타
normal
폴라리스 24.06.12.18:31 0 34
3895 기타
normal
폴라리스 24.06.12.18:31 0 25
3894 기타
normal
폴라리스 24.06.12.18:27 0 26
3893 기타
normal
폴라리스 24.06.11.10:43 0 68
3892 기타
normal
폴라리스 24.06.11.10:42 0 74
3891 기타
normal
폴라리스 24.06.10.20:21 0 103
3890 기타
normal
폴라리스 24.06.10.20:18 0 54
3889 기타
normal
폴라리스 24.06.08.20:36 0 80
3888 기타
normal
폴라리스 24.06.08.20:35 0 76
3887 기타
normal
폴라리스 24.06.07.16:48 0 103
3886 기타
normal
폴라리스 24.06.07.16:39 0 62
3885 기타
normal
폴라리스 24.06.07.16:37 0 92
3884 기타
normal
폴라리스 24.06.06.16:58 0 85
3883 기타
normal
폴라리스 24.06.05.21:31 0 100
3882 기타
normal
폴라리스 24.06.05.21:31 0 67
기타
normal
폴라리스 24.06.04.00:42 0 63
3880 기타
normal
폴라리스 24.06.04.00:40 0 93
3879 기타
normal
폴라리스 24.06.04.00:39 0 38
3878 기타
normal
폴라리스 24.06.04.00:39 0 42
3877 기타
normal
폴라리스 24.06.04.00:34 0 41

밀리돔 | milidom 의 저작물은 다음의 사이트 이용 약관 에 의거해 이용 가능합니다.
이 라이선스의 범위 이외의 이용허락은 운영진에게 문의 하시기 바랍니다.