집안일을 도와주는 로봇 비서가 있다고 상상해 보자. 이 로봇에게 방 청소를 시키고 싶은데 걱정이 하나 있다. 로봇이 실수로 내가 아끼는 장난감을 쓰레기통에 버릴지도 모른다는 점이다. 그렇다고 로봇을 상자 안에 가둬두면 아무 일도 할 수 없다. 로봇에게 집안 모든 곳을 다닐 수 있는 열쇠를 줄 것인지, 아니면 아무것도 못 하게 할 것인지 고민하게 된다.

NanoClaw와 Vercel이 만든 15개 앱 승인 시스템

최근 NanoClaw(AI 비서가 안전하게 일하도록 돕는 도구)가 Vercel(웹사이트를 쉽게 만들고 올리는 서비스) 그리고 OneCLI(비밀번호 같은 중요 정보를 안전하게 보관하는 도구)와 손을 잡았다. 이들은 AI 비서가 중요한 일을 하기 전에 반드시 사람의 허락을 받게 만드는 시스템을 만들었다. 이제 AI는 혼자서 마음대로 파일을 지우거나 돈을 보내는 일을 할 수 없다.

이 시스템은 우리가 평소에 쓰는 15개의 채팅 앱에서 작동한다. Slack(회사에서 쓰는 채팅 앱)이나 WhatsApp(전 세계적으로 많이 쓰는 채팅 앱) 같은 곳에서 AI가 요청을 보내면, 사용자는 스마트폰으로 날아온 알림창에서 승인 버튼만 누르면 된다. 예를 들어 AI가 회사 서버 설정을 바꾸려고 하면, 책임자가 채팅 앱에서 확인 버튼을 눌러야만 실제로 작업이 진행된다. AI가 멋대로 행동해서 생기는 사고를 막기 위해 사람의 확인 절차를 채팅 앱 속으로 가져온 것이다.

가짜 열쇠와 문지기가 지키는 안전한 집

기존의 AI 비서들은 집 전체를 열 수 있는 진짜 열쇠를 가지고 있었다. 만약 AI가 착각을 하거나 나쁜 마음을 먹으면 집안의 모든 것을 망가뜨릴 위험이 있었다. 쉽게 말하면 AI에게 집주인과 똑같은 권한을 준 셈이다. 하지만 이번에 도입된 방식은 완전히 다르다.

비유하자면 AI에게는 진짜 열쇠 대신 가짜 열쇠를 준다. AI가 문을 열려고 가짜 열쇠를 사용하면, 그 앞에 서 있던 OneCLI Rust Gateway(가짜 열쇠를 확인하고 진짜 열쇠로 바꿔주는 문지기)가 이를 가로막는다. 문지기는 미리 정해진 규칙을 확인한다. 단순한 정보 읽기는 그냥 통과시키지만, 중요한 내용을 바꾸는 일이라면 즉시 주인에게 메시지를 보낸다.

이때 Vercel Chat SDK(여러 채팅 앱에 메시지를 쉽게 보내주는 도구)가 사용되어 주인에게 예쁜 확인 카드를 보내준다. 주인이 버튼을 눌러 허락하면, 그제야 문지기가 진짜 열쇠를 꺼내 문을 열어준다. AI는 진짜 열쇠가 어디에 있는지조차 모르기 때문에 절대 혼자서 문을 열 수 없다. 보안의 책임이 AI가 아니라 시스템 자체에 있게 만든 것이다.

500줄의 짧은 코드로 만든 투명한 설계

NanoClaw는 복잡한 것을 싫어한다. 보통 이런 시스템은 코드가 수십만 줄에 달해 어디에 문제가 있는지 찾기 어렵다. 하지만 NanoClaw는 핵심 기능을 TypeScript(컴퓨터에게 명령을 내리는 언어의 한 종류)라는 언어로 단 500줄 정도로 아주 짧게 만들었다. 코드가 짧으니 사람이 직접 읽어보거나 다른 AI에게 검사를 맡겨도 8분이면 충분할 정도로 투명하다.

또한 AI를 Docker(컴퓨터 안에 작은 가상 방을 만드는 도구)나 Apple Containers(애플 컴퓨터 전용 가상 방 도구)라는 격리된 공간에 가둬두고 일을 시킨다. AI가 혹시라도 이상한 행동을 해도 그 가상 방 안에서만 일이 벌어지므로 실제 컴퓨터에는 아무런 영향이 없다. 여기에 Anthropic Agent SDK(여러 AI 비서가 함께 일하게 돕는 도구)를 연결해 여러 명의 전문 AI 비서가 서로 협력하며 일하게 할 수도 있다. 불필요한 기능은 빼고 꼭 필요한 기술만 조립해서 쓰는 방식을 택한 것이다.

AI 비서가 우리의 믿음직한 파트너가 되기 위해 가장 중요한 것은 통제권이다. 이제 우리는 AI에게 모든 권한을 주는 대신, 안전한 울타리 안에서 필요한 순간에만 허락을 내어주는 방식으로 함께 일하게 될 것이다.