요즘은 코딩을 몰라도 앱을 만들 수 있는 시대다. 인공지능에게 내가 원하는 기능을 말로 설명하면 순식간에 프로그램이 완성된다. 마치 마법처럼 느껴지는 이 과정은 누구나 개발자가 될 수 있다는 희망을 준다. 하지만 이 마법이 가장 조심해야 할 의료 현장에서 사용된다면 어떤 일이 벌어질까.

AI 코딩 에이전트로 만든 무방비 환자 시스템

한 의료기관 직원이 AI 코딩 에이전트(사람 대신 코드를 짜주는 인공지능 도구)를 사용해 환자 관리 앱을 직접 만들었다. 이 직원은 실제 환자들의 데이터를 앱에 모두 집어넣고 인터넷에 공개했다. 진료 중에 나누는 대화 내용을 녹음하면 AI 서비스가 자동으로 요약해 주는 편리한 기능까지 넣었다.

문제는 이 앱에 최소한의 잠금장치도 없었다는 점이다. 해외 매체의 한 작성자가 이 앱을 발견하고 공격해 보았다. 결과는 참담했다. 단 30분 만에 모든 환자의 정보를 읽고 수정할 수 있는 권한을 얻었다. 환자의 이름과 진료 기록이 암호화(정보를 알아볼 수 없게 꼬아놓는 것) 없이 그대로 노출되어 있었다.

더 심각한 것은 데이터의 흐름이다. 환자의 음성 녹음 파일은 미국에 있는 AI 기업의 API(프로그램과 프로그램이 대화하는 통로)로 직접 전송되었다. 이 과정에서 환자들에게 알리는 절차는 전혀 없었다. 데이터는 미국 서버에 저장되었지만, DPA(데이터를 어떻게 처리할지 약속하는 계약서)조차 작성되지 않은 상태였다.

바이브 코딩이 불러온 보안 지형의 붕괴

이번 사건은 이른바 바이브 코딩(코드의 원리를 모르고 AI가 짜준 분위기에만 의존해 개발하는 것)의 전형적인 위험을 보여준다. 앱의 구조를 보면 충격적이다. 전체 프로그램이 단 하나의 HTML(웹페이지의 뼈대를 만드는 문서) 파일로 이루어져 있었다. 모든 설계도가 겉으로 다 드러나 있는 구조였다.

보안 장치는 더 허술했다. 접근 제어 로직(누가 들어올 수 있는지 결정하는 규칙)이 오직 JavaScript(웹페이지를 움직이게 만드는 프로그래밍 언어)에만 들어 있었다. 이는 마치 집 대문에 자물쇠를 달았지만, 벽 자체가 없어서 누구나 옆으로 걸어 들어올 수 있는 집과 같다.

전문적인 지식이 없는 사용자가 curl(컴퓨터끼리 데이터를 주고받게 하는 명령어) 같은 간단한 도구만 써도 뒷방 컴퓨터에 저장된 데이터를 모두 가져갈 수 있었다. AI는 사용자가 요청한 기능을 구현하는 데만 집중했다. 그 기능이 안전한지, 법적으로 문제가 없는지는 AI의 고려 대상이 아니었다.

의료 데이터 시장의 신뢰와 법적 책임

이 사건은 단순한 실수를 넘어 법적 재앙으로 이어진다. 스위스의 nDSG(개인정보 보호법)와 의료진이 지켜야 할 직업상 비밀 유지 의무를 정면으로 위반했다. 환자의 가장 민감한 정보가 주인 허락 없이 미국 서버로 날아갔고, 누구나 볼 수 있게 방치되었다.

비즈니스 관점에서 이는 AI 도입의 새로운 위험 요소를 시사한다. 기업이나 기관이 개발 비용을 줄이기 위해 비전문가에게 AI 코딩을 맡길 때 발생하는 리스크다. 속도는 빨라졌지만, 검증 단계가 사라진 소프트웨어는 언제든 터질 수 있는 시한폭탄이 된다.

결국 AI가 짠 코드를 검토하고 안전하게 배치할 수 있는 능력이 기업의 핵심 경쟁력이 된다. AI가 코드를 대신 써줄 수는 있어도, 그 코드가 가져올 법적 책임과 보안 사고까지 대신 져주지는 않기 때문이다.

AI는 코딩의 문턱을 낮췄지만, 안전의 문턱은 오히려 더 높아졌다. 이제는 코드를 짜는 능력보다 AI가 만든 결과물이 옳은지 판단하는 능력이 더 중요하다.