"AI, 중요한 건 기술 아닌 조직의 수용 능력"

김상희 기자
2026.04.07 06:00

[2026 키플랫폼] 키맨 인터뷰 - 스테판 벤딘 스웨덴국립연구소(RISE) 지능형시스템부문장

스테판 벤딘 스웨덴국립연구소 지능형시스템부문장/사진제공=스웨덴국립연구소

본격적인 인공지능(AI) 시대가 열리면서 많은 전문가들이 데이터의 중요성을 강조한다. 연산하고 추론하며 스스로 판단한 결과물을 내놓는 AI 모델 자체도 중요하지만, 결국 그 결과는 데이터에 달려 있기 때문이다.

특히 AI 모델은 미국과 중국이 압도적인 경쟁력을 지닌 상황에서, 글로벌 AI 경쟁에 살아남기 위해서는 다른 나라나 기업이 가지지 못한 특화 데이터에서 대응 전략을 모색해야 한다는 분석도 많다.

머니투데이가 인터뷰한 스테판 벤딘 스웨덴국립연구소(RISE, Research Institutes of Sweden) 지능형시스템부문장은 이 같은 AI 시대 데이터의 핵심을 '보존', '분리', '출처 관리', '통제된 구조화'로 설명했다.

완벽한 데이터 보다 실패·이상치·기존 분류 체계에 맞지 않는 결과가 더 유용

-완벽한 데이터를 기다리기보다는 현실의 복잡하고 모순적인 데이터를 AI가 처리할 때 더 큰 혁신이 가능하다고 말해 왔다. 이에 대해 구체적으로 설명해 달라.

▶AI 분야에서 반복되는 실수 중 하나는 '깔끔함'을 '유용함'으로 착각하는 것이다. 현실에서의 데이터는 정제된 형태로 주어지지 않는다. 모순, 실패, 모호성, 변화, 예외적인 상황들이 나타난다. 이러한 것들을 제거해야 할 결함으로 보면 안 된다. 오히려 실제 (유용한) 신호가 존재한다는 의미인 경우가 많다.

우리가 '좋은 결과'만 남긴다면 더 나은 모델을 얻는 것이 아니라, 더 깔끔하지만 훨씬 얕은 모델을 얻게 된다. 그래서 유용한 데이터는 성공 사례 외에도 실패, 이상치, 기존 분류 체계에 맞지 않는 결과까지 포함해야 한다. 이는 무작위 노이즈를 넣자는 것이 아니다. '완벽한 데이터'를 기다리는 태도를 버려야 한다는 뜻이다. 대부분의 데이터는 중요하지 않다. 핵심은 중요한 부분을 선별하고 그 질감을 유지하며 사실과 추론을 구분하면서 불확실성을 숨기지 않는 것이다.

-피지컬 AI를 구축하는 과정에서도 정제되지 않은 데이터의 중요성이 커 보인다. 이를 어떻게 확보하고 처리해야 하나?

▶정제되지 않은 데이터는 제거해야 할 '불순물'이 아니다. 현실에서 직접 얻은 1차 증거로 다뤄야 한다. 특히 피지컬 AI에서는 더욱 중요하다. 왜냐하면 이러한 시스템은 스프레드시트가 아닌 감각, 행동, 결과, 불확실성이 이어지는 연속적인 세계 속에서 작동하기 때문이다.

처리과정의 핵심 원칙은 △원본 데이터를 유지하는 '보존' △실제 발생한 것과 추론을 명확히 구분하는 '분리' △신뢰도·시간·가정·의존성 기록의 '출처 관리' △모호성을 유지한 채 구조화하는 '통제된 구조화'다. 이밖에도 '보안'은 단순한 접근 통제를 넘어, 인식적 보안과 운영 주권까지 포함한다. 중요한 데이터는 외부에 쉽게 넘겨서는 안 된다. 정제되지 않은 데이터의 기회는 현실의 마찰, 즉 망설임, 이상, 모순, 변화 등에 있다. 바로 이 지점에서 더 나은 세계 모델, 더 강한 적응력, 더 견고한 의사결정이 만들어진다.

-"모든 것은 콘텍스트(문맥) 엔지니어링이다"라는 말을 했다. 이 말의 의미는 무엇인가?

▶AI 모델은 99% 확신해도 틀릴 수 있다. 많은 AI 시스템에서 '95% 신뢰도'라고 표현하더라도 이는 단순한 점수일 뿐, 통계적 보장을 말하는 게 아니다. 콘텍스트 엔지니어링이라는 말은, 기술적으로 대형언어모델(LLM)은 스스로 지속적인 상태를 가진 존재가 아니라 입력을 출력으로 변환하는 함수이며 따라서 성능은 맥락 설계에 달려 있다는 것을 의미한다. 즉 '어떤 정보를 가져오는가', '어떤 기억을 제공하는가', '모순을 어떻게 표현하는가', '어떤 도구를 호출할 수 있는가', '증거가 부족할 때 어떻게 대응하는가' 등에 대한 것으로, 콘텍스트 엔지니어링은 단순 프롬프트가 아닌 전체 정보 환경 설계를 말한다.

실무적으로 보면 AI 실패는 모델 문제가 아니라 맥락, 권한, 운영 설계의 실패다. 그래서 지식 그래프가 중요하다. 이는 단순 검색 도구를 넘어 '권위 구조'를 형성한다. 결국 AI 개발은 '모델 선택과 프롬프트 작성'이 아닌 '증거, 기억, 검증, 거부 기준을 갖춘 시스템 설계'로 바뀌게 된다.

스테판 벤딘 스웨덴국립연구소 지능형시스템부문장/그래픽=이지혜
AI는 확실성 제공 도구 아냐…규율 있는 의사결정 지원 시스템

-AI가 산업·사회적 성과로 이어진 사례는 무엇인가?

▶대표 사례는 기상 예측이다. 정확한 예측은 재난 대응, 농업, 물류, 에너지에 모두 영향을 미친다. AI의 가치는 불확실성 속에서 더 빨리 사고하고 행동하게 해주는 데 있다. 기후는 복잡하게 얽힌 시스템이다. AI는 복잡성을 제거하는 것이 아닌 이질적 데이터를 연결하고, 예측을 개선하며, 약한 신호를 조기에 감지해 다양한 시간 스케일에서 의사결정을 지원한다. 기후 AI는 완벽한 데이터를 전제로 해서는 안된다. 현실은 본질적으로 혼잡하며 유용한 신호는 그 안에 있다. 핵심은 AI는 확실성 제공 도구가 아니라, 규율 있는 의사결정 지원 시스템이라는 점이다.

-RISE에서 현재 가장 중점적으로 추진하는 연구는 무엇이며, 연구 성과를 실제 현장에 적용할 때 가장 큰 어려움은 무엇인가?

▶RISE에서 가장 줌점적으로 추진하는 분야는 '콘텍스트·기억·지식 구조', '지속적·생물학적 학습', '모델 학습의 민주화와 특화 모델' 이렇게 3가지다.

특히 모든 조직이 범용 초거대 모델을 만들 필요는 없고, 도메인 특화 모델이 더 현실적이라고 본다. 개인적으로는 이와 관련해 AI 모델의 사회적 특성, 즉 협력, 이타성 부분도 연구하고 있다.

연구 성과를 적용하는 데 있어 중요한 건 기술보다 조직의 수용 능력이다. AI 프로젝트는 레거시 시스템, 조직 분절, 승인 절차, 보안·법률문제 등에서 실패한다. 해결 방법은 변화 비용을 줄이고 이해관계 정렬이 쉬운 곳에서 시작하며 명확한 책임자를 두는 것이다. 초기 탐색과 대규모 적용을 분리하는 것도 중요하다. 결론적으로 이는 기술 문제가 아니라 운영 모델 문제다.

-AI가 인간을 대체할 것이라는 우려에 대해 어떻게 생각하나.

▶AI는 인간의 일을 완전히 대체하기보다 일의 성격을 변화시킨다. 가치는 문제 정의, 시스템 사고, 통합 능력, 책임으로 이동한다. 단순 반복 업무는 AI와 경쟁하게 된다. 하지만 일은 단순한 수입을 위한 게 아니라 정체성과 소속감의 문제다. 따라서 해결책은 소득이 아닌 의미 있는 역할을 재설계하는 것이다.

<저작권자 © ‘돈이 보이는 리얼타임 뉴스’ 머니투데이. 무단전재 및 재배포, AI학습 이용 금지>