9월 오스트리아 빈에서 만난 자율주행 분야의 최고 석학 중 한 명인 필립 쿱만 카네기멜론 대학 교수가 ‘로보택시와 개인 안전(Robotaxis and Personal Safety)’이란 제하에 ‘탑승자 방어를 위해 로보택시가 도로이용자를 해할 수 있어야 할까?’란 질문을 던지고 이에 대한 최소한의 답을 제시한 글을 공유해줬다. 이 질문은 자율주행이 전개된 지금까지 가장 많이 던져진 질문 중 하나다. 쿱만 교수의 글을 전한다.
글 | 필립 쿱만(Philip Koopman) 교수
쿱만 교수는 자율주행차 안전, UL 4600, 소프트웨어 안전, 임베디드 시스템, 핵심 시스템, 임베디드 제어 네트워크, 분산 임베디드 시스템, 보안, 소프트웨어 엔지니어링 교육에 주력하고 있다. 200건 이상의 임베디드 소프트웨어 프로젝트에 대한 산업 설계 검토 경험이 있다. UL 4600의 주요 저자다. 냉전시대 미 해군 잠수함 장교, Harris Semiconductor 임베디드 CPU 설계자, United Technologies 임베디드 시스템 연구원, 그리고 몇몇 스타트업의 주요 구성원으로 활동했다.
관련기사: 자율주행, 안전 타협은 없다! , 2024
UL 4600 개요: 자율주행 안전 표준 , 2020
로보택시에 대한 안전 논의는 종종 사고 위험과 부상 비교 데이터 분석에 깊이 들어가지만, 개인 안전 문제도 중요한 고려 사항이다. 로보택시가 대규모로 성공적으로 운영되기 위해서는 수용 가능한 수준의 개인 안전을 보장하는 것이 중요하다.
일부 승객은 인간 운전자가 있는 라이드헤일(ride hail)의 위험을 피하기 위해 로보택시를 선택할 것이지만, 로보택시에도 다른 안전 문제가 존재한다.
NBC NEWS, ‘Are taxis safer with no driver? These women think so’, 2024. 9
자율주행 택시는 샌프란시스코와 같은 도시에서 여성에게 새로운 선택지를 제공함으로써 오랫동안 제기된 승차 공유 앱의 문제, 특히 남성 운전자와의 문제 행동에 대한 우려를 해결하고 있다. 인터뷰에 응한 몇몇 여성들은 대부분 Uber와 Lyft와 같은 인기 승차 공유 앱을 거의 사용하지 않는 대신 운전자 없이 소프트웨어가 조종하는 Waymo와 같은 자율주행 택시로 전환했다고 말한다. - 중략 – 파스토레 씨는 늦은 밤 택시를 타 낯선 사람과 집까지 가는 것을 걱정할 필요가 없다는 게 좋다고 말했다. - 중략 - 승차 공유나 택시 운전자가 폭력 사건을 일으키는 사례는 드물다고 보고된다. Lyft와 Uber에 따르면 치명적인 사고, 신체 폭력, 또는 성폭행 같은 안전 위반 사례는 약 50만 회 승차 중 한 번 꼴로 발생한다. 하지만 드문 사례더라도 일부 여성들은 자율주행 택시가 있다면 굳이 위험을 감수하고 싶지 않다고 말한다. Waymo 같은 자율주행 택시의 인기는 특히 혼자 또는 밤에 이동하는 여성들에게 매력적인 옵션으로 떠오르고 있다.
최근 여러 로보택시가 탑승자가 있는 상태에서 파손되는 사건이 발생하면서 이 문제가 부각됐다. 다른 어떤 사건에서는 한 로보택시가 남성들에게 제지당해 타고 있던 여성 탑승자가 괴롭힘을 당하기도 했다.
NBC, ‘Customers raise complaints as Waymo robotaxis get vandalized’, 2024. 10
샌프란시스코 경찰국은 웨이모 탑승객들로부터 접수된 여러 불만 사항을 조사 중이다. 탑승객들은 자율주행 로보택시가 파손되는 바람에 이용이 방해받았다고 보고했다. SNS에는 로보택시에 태그를 붙이거나 물건을 던지는 사람들이 찍힌 영상이 널리 퍼지고 있다. 최근 사건 중 하나는 LA에서 방문한 세 명의 여성이 차량에 모인 무리가 태그를 붙이자 비명을 지르는 모습이 포착됐다. 해당 여성은 웨이모 지원 센터에 전화해 차가 움직이지 않아 어떻게 해야 할지 물었다. 21일에도 웨이모 차량을 대상으로 유사한 사건들이 발생했다. 가장 최근 사건에는 두 남성이 로보택시 앞에 서서 차량을 움직이지 못하게 했고 그들은 반복적으로 그녀의 전화번호를 물었다. - 중략 -
사람 없는 로보택시에서 승객이 안전하게 보호받는다는 이상적인 그림은 몇 가지 주요한 개인 안전 문제를 간과한다. 초기의 괴롭힘 사건을 비교적 해롭지 않은 장난이나 불편, 또는 성숙 과정의 일부로 치부하고 싶을 수 있지만, 이는 중요한 개인 안전 문제를 드러낸다. 비상 상황에서 자동화된 안전 프로토콜을 중단할 수 있는 (명령) 권한을 가진 사람이 없다는 점은 나쁜 의도를 가진 사람들에게 악용될 수 있다.
개인이 소유한 기존 차량의 중요 특징 중 하나는 개인 안전을 더 잘 통제할 수 있다는 점이다. 잠긴 개인 차량은 잠재적인 위협으로부터 물리적 보호를 제공한다. 혼자 있는 운전자는 일반 택시나 라이드헤일 서비스의 승객처럼 낯선 사람과 차량을 공유할 필요가 없다. 흔히 제기되는 주장은, 1인용 로보택시가 스스로 운전할 수 없거나 개인 차량을 소유할 여력이 없는 사람들에게 이런 안전 이점을 제공한다는 것이다.
(유명한 밈 중 하나는 이렇게 말한다: “몇 년 전만 해도 우리는 낯선 사람과 차를 타지 말고 인터넷에서도 낯선 사람과 이야기하지 말라고 들었다. 그런데 이제 우리는 인터넷을 통해 낯선 사람에게 연락해 그들의 차에 타고 있다”)
현실은 훨씬 더 복잡하다
그러나 현실은 훨씬 더 복잡하다.
개인 안전은 혼자 타는 것만이 아니라 안전한 장소에서 하차하고, 개인 위험을 낮출 수 있는 경로를 선택하며, 위험해 보이는 목적지에서 차를 내리지 않기로 결정하고, 원하지 않는 장소에서 고립되지 않도록 하는 것까지 포함된다. 이런 점들은 적어도 일부 로보택시 승차에서 문제로 지적되고 있다.
AP, ‘Recalling a wild ride with a robotaxi named Peaches as regulators mull San Francisco expansion plan’, 2023. 8
크루즈와 웨이모의 자율주행차들이 샌프란시스코에서 큰 사고에 연루된 적은 없지만, 로보택시들이 자주 고장 나면서 도시 전역에서 24시간 운행을 허용하는 확장안에 대해 강한 반대가 일어나고 있다. - 중략 – 피치(Peaches, 크루즈의 쉐비볼트 로보택시)와의 승차는 좋지 않게 끝났다. 페어몬트 호텔 근처 지정된 하차 위치에 가까워지자 로보택시는 갑자기 속도를 높이며 방향을 바꿔 반대 방향으로 출발했다. 대시보드 화면에 내가 목적지에서 20분 정도 떨어진 곳에 있다는 표시를 보고 당황하기 시작했다. - 중략 - 크루즈의 직원은 피치가 혼란에 빠졌다며 사과하고, 다시 프로그래밍했다고 설명했다. 차는 요청한 곳으로 돌아가는 것처럼 보였지만, 다시 같은 일이 반복되었다. - 중략 - 갑자기 피치는 도로 한가운데에서 멈췄다. - 중략 - 올초(2023) 5개월 동안, 샌프란시스코 교통당국은 크루즈나 웨이모 차량이 안전을 위협할 수 있는 240건 이상의 사고를 기록했다고 밝혔다. 당국은 실제 문제 수가 더 많을 것이라고 보고 있으며….
또 다른 개인 안전 측면은 도로에서 다른 사용자들이 차량 탑승자를 위협할 때 발생하는 일이다. (물론, 로보택시나 탑승자를 위협하거나 해치는 행동은 용납될 수 없다! 하지만 그것이 일어나지 않을 것이라고 장담할 수 없다. 최근 보고서들에 따라 이제 더이상 문제를 미루지 말고 해결해야 할 시점이다.)
로보택시는 탑승자를 대상으로 괴롭힘을 당하기 쉬운 타깃이 될 수 있다. 왜냐면 괴롭히는 사람들은 컴퓨터 운전자가 보행자를 다치게 하지 않도록 프로그램돼 있다는 사실을 알기 때문이다. 로보택시 앞에 서서 기다리면 경찰이 도착할 때까지, 경찰이 호출되었고 그들이 또 다른 호출에 응답할 수 있다면, 그동안 로보택시에 아무런 행동을 할 수 있다.
로보택시에서 괴롭힘이나 훼손을 당하는 탑승자는 위험한 상황에 처하게 된다. 차에서 나가는 것은 악의적인 행동자들과 직접 마주칠 위험이 있다. 차 안에 계속 남아 있는 것도 상황이 나아질 수도 있지만 그렇지 않을 수도 있다. 2월에 로보택시가 군중에 갇혀 불에 탄 사건을 떠올려 보라. (물론, 그 로보택시는 비어 있었다. 하지만 이 사건이 일어난 사실만으로도 탑승자는 이것이 자신에게 일어날 수 있다는 불안감을 느끼게 될 것이다. 그런 사건이 탑승한 로보택시에서 일어날 가능성이 없다고 사람들이 말하더라도.)
The San Francisco Standard, ‘Waymo robotaxi goes up in flames in Chinatown after crowd attacks vehicle’, 2024. 2
로보택시를 둘러싼 군중이 무엇 때문에 공격을 시작했는지 명확하지 않다. SNS에 올라온 영상에는 수십 명의 사람이 차를 둘러싸고 옆면에 낙서를 하고, 한 남성이 스케이트보드를 사용해 앞 시트 창문과 윈드실드를 깨는 모습이 담겨 있었다. 그 후, 누군가 불꽃놀이를 차 안에 던져 로보택시를 불태웠다. 불길은 빠르게 재규어 차량을 휩쓸었고, 차량은 완전히 파괴됐다.
군중이 웨이모 차량의 창문을 깨고 폭죽을 안에 던져 차에 불이 붙었다. @michael_vandi, X.com
이 문제를 바라보는 방식은 다양하지만, 핵심적인 문제가 더 넓은 의미에서 중요한 문제라고 생각한다: 안전 프로토콜과 관련된 명령 오버라이드 기능의 부족말이다.
왜 가해자들이 로보택시를 막는 것에 대해 대담해질까? 아마도 그들은 인간 운전자가 택시를 운전하고 있었다면, 그들을 밀어내거나, 자기 방어를 위해 그들을 쳐서, 또는 후진하거나, 피하려한다는 것을 알고 있기 때문일 것이다. 로보택시는 스티어링 휠이 없기 때문에 실제로 할 수 있는 일은 경찰을 부르는 것 외에는 없고, 이를 가해자가 알기 때문에 그런 행동을 할 수 있는 것이다. 경찰이 도착하는 데에는 시간이 걸릴 수 있다.
가해자는 모든 권력을 갖는다
이 순간, 가해자는 모든 권력을 갖는다. 이 권력 불균형은 인간 운전자가 있는 차량과는 근본적으로 다르다.
인간 운전자는 원하면 도로 규칙, 안전 프로토콜 등을 무시할 수 있는 능력을 갖고 있다. 만약 이로 인해 손실이 발생하면 책임을 지게 되지만, 중요한 점은 인간 운전자가 긴급한 상황에서 자위적 행동을 할 수 있다는 점이다.
반면, 로보택시는 자아보호나 적절한 책임을 갖고 있지 않기 때문에 (위험한 로보택시 거동으로 인한 피해 책임 결여는 자율주행차 산업이 수년간 노력과 돈을 투자해 추구해온 것으로, 상당한 성공을 거둔 결과다) 안전 프로토콜을 명령으로 오버라이드할 수 있는 능력을 부여하는 것은 매우 큰 문제가 될 수 있다. 승객을 위협하는 사람이 있다면, 로보택시가 그 사람을 일부러 치는 것이 허용될 수 있다는 논의는 윤리적으로 복잡한 문제를 낳을 수 있다.
(약간 과장하면: “횡단보도에서 아이를 치게 해서 죄송합니다 - 컴퓨터 운전자가 그 아이가 탑승자를 위협한다고 판단해서 자위적으로 행동한 거예요. 이 상태에서는 컴퓨터가 법적으로 운전자가 되니까, 누군가를 고소하거나 감옥에 보낼 수 없죠. 다음에는 그런 오류를 고칠 수 있을지 살펴보겠습니다”란 식으로 말할 수 있다.)
승객이 명령 우선권을 책임지도록 할 수도 있다. 하지만, 14세 아이가 긴급 버튼을 눌러 잠재적으로 위험한 행동을 유발할 수 있어야 할까? 17세는 어떨까? 그 사람이 운전면허를 갖고 있다면 상관 있을까? 혼자 타고 있는 8세 아이가 무섭다고 느낀다면? 술에 취한 승객은? 긴급요청의 정당성을 인증하는 것은 금세 문제가 되며, 가장 취약한 승객들을 위한 해결책이 되지 않는다.
그렇다면 로보택시의 개인 안전 계획은 무엇일까? 우리가 컴퓨터에게 탑승자를 보호하기 위해 도로 사용자를 의도적으로 해치도록 명령을 내리게 해야 할까? 아니면 다른 방법을 취해야 할까? 그 다른 방법은 실제로 작동할까? 누가/무엇이 책임을 져야 할까?
적어도 다음과 같은 요소들이 개인 안전에 대한 넓은 시각을 통해 다뤄져야 한다:
- 승객이 불안하다고 느끼는 하차 지점 피하기
- 승객이 불안하다고 느끼는 경로 구간 피하기
- 공격(괴롭힘, 재산 피해, 개인적 위협)을 방지하고, 피하며, 회피하기
- 어떤 승객이든 불안하다고 느끼는 방식으로 승차 공유하지 않기
- 장비 고장, 잘못된 경로 선택(예: 폭력적인 시위로 진입), 경로 실패 등으로 로보택시에 갇히지 않기
- 위험한 지역(예: 총격 사건 현장이나 통제가 안 되는 군중이 있는 지역)에서 벗어날 수 있도록 하기, 비록 그렇게 하는 것이 다른 상황에서 불쾌하게 여겨질 수 있는 위험을 초래하더라도
이 문제들을 해결하는 것은 분명 쉽지 않다. 기술자들은 순수 기술적 해결책을 좋아하지만, 순수 기술적 해결책은 괴롭힘이나 개인 안전과 같은 복잡한 사회 - 기술적 문제를 다루는 데 있어 매우 취약하다.
<저작권자 © AEM. 무단전재 및 재배포, AI학습 이용 금지>