산업
수정 2026-03-06
읽기 19분

설명가능 AI XAI 기법 SHAP과 LIME의 구체적 활용 사례

인공지능, AI가 우리 삶 깊숙이 스며들고 있습니다.

아침에 눈을 뜨면 AI 비서가 오늘의 날씨와 뉴스를 알려주고, 출근길에는 AI가 추천한 음악을 듣습니다.

점심 메뉴를 고민할 땐 AI가 내 취향에 맞는 맛집을 골라주고, 퇴근 후에는 AI가 골라준 영화를 보며 하루를 마무리하죠.

이 모든 과정이 너무나 자연스러워 우리는 AI의 존재를 잊고 살 때가 많습니다.

하지만 문득 이런 생각이 듭니다. 대체 AI는 어떻게 내 마음을 이렇게 잘 아는 걸까요?

더 나아가, AI가 내 인생의 중요한 결정을 내린다면 어떨까요?

예를 들어, 은행의 AI가 내 대출 신청을 거절하거나 병원의 AI가 내 건강 상태에 대해 어떤 판단을 내린다면 말입니다.

그럴 때 우리는 AI에게 묻고 싶어집니다.

“왜 그런 결정을 내렸니? 무엇을 보고 그렇게 판단했니?”

하지만 AI는 쉽게 대답해주지 않습니다. 마치 속을 알 수 없는 상자, ‘블랙박스’처럼 느껴질 때가 많죠.

이런 막막함과 불안감은 AI 기술에 대한 막연한 두려움으로 이어지기도 합니다.

만약 이 블랙박스를 열고, AI의 생각과 마음을 들여다볼 수 있는 열쇠가 있다면 어떨까요?

AI가 왜 그런 판단을 했는지, 그 이유를 하나하나 친절하게 설명해준다면 우리는 AI를 더 신뢰하고, 더 똑똑하게 활용할 수 있을 겁니다.

오늘 우리가 함께 떠나볼 이야기는 바로 그 열쇠에 대한 것입니다. AI의 마음을 여는 기술, ‘설명가능 AI’에 대한 이야기입니다.

그리고 그중에서도 가장 주목받는 두 가지 방법, SHAP과 LIME이 어떻게 우리 실제 삶의 문제를 해결하고 있는지 구체적인 사례를 통해 알아보려 합니다.

어려운 기술 용어는 잠시 잊으셔도 좋습니다. 그저 다정한 선배가 들려주는 흥미로운 기술 이야기라고 생각하고 편안하게 따라와 주세요.

이 글이 끝날 때쯤이면, 여러분은 더 이상 AI를 두려운 존재가 아닌, 우리가 속마음을 터놓고 이야기할 수 있는 똑똑한 파트너로 느끼게 될 겁니다.

AI의 마음속을 들여다볼 수 있다면 어떨까요?

AI를 한 명의 똑똑한 아이라고 생각해 보죠.

이 아이는 수많은 책과 그림, 영상을 보며 세상을 배웁니다.

고양이 사진 수백만 장을 보고 나면 어떤 사진을 봐도 고양이를 기가 막히게 찾아내고, 위대한 작가들의 글을 모두 읽고 나면 그럴듯한 시 한 편을 써내기도 합니다.

그런데 우리는 이 아이가 ‘어떻게’ 그런 결론에 도달했는지 정확히 알기 어렵습니다.

고양이 사진을 보고 “이건 고양이야”라고 말할 때, 아이의 머릿속에서 어떤 복잡한 과정이 일어나는지 전부 설명하기는 불가능에 가깝죠.

이것이 바로 AI의 ‘블랙박스’ 문제입니다.

마치 세상에서 가장 뛰어난 요리사가 만든 음식을 맛보는 것과 같습니다.

우리는 그 음식이 정말 맛있다는 것은 알지만, 어떤 재료가 얼마나 들어갔고 어떤 비밀스러운 조리법이 사용되었는지는 전혀 알 수 없습니다. 그저 요리사의 실력을 믿고 먹을 뿐이죠.

일상적인 추천이야 괜찮습니다. AI가 추천해준 영화가 마음에 들지 않아도 큰 문제는 없으니까요.

하지만 문제가 심각해지는 순간이 있습니다.

만약 이 요리사가 내 건강을 책임지는 약을 조제하는 약사라면 어떨까요?

약을 먹었는데 부작용이 생겼을 때, 우리는 “어떤 성분 때문에 이런 증상이 나타났나요?”라고 물어야만 합니다. “그냥 제 판단을 믿으세요”라는 대답은 결코 용납될 수 없죠.

금융, 의료, 채용, 법률처럼 우리 삶에 중대한 영향을 미치는 분야에서 AI가 활약하기 시작하면서, 우리는 더 이상 AI를 믿기만 할 수는 없게 되었습니다.

AI의 결정을 신뢰할 수 있는지, 그 결정이 공정한지, 혹시 잘못된 판단을 내렸다면 어디를 고쳐야 하는지 알아야만 합니다.

바로 이 지점에서 ‘설명가능 AI’가 등장합니다.

XAI는 말 그대로 AI의 판단 과정을 인간이 이해할 수 있는 방식으로 설명해주는 기술입니다.

깜깜한 블랙박스 안에 환한 조명을 켜서 그 안을 들여다볼 수 있게 해주는 도구라고 할 수 있죠.

마치 말이 없던 천재 요리사가 드디어 자신의 레시피 노트를 공개하고, 왜 이 요리에 이 재료를 썼는지, 불의 세기는 왜 그렇게 조절했는지 차근차근 설명해주는 것과 같습니다.

레시피를 알게 되면 우리는 그 요리를 더 깊이 이해하고 신뢰하게 됩니다.

혹시 특정 재료에 알레르기가 있다면 그 재료를 빼달라고 요청할 수도 있고, 더 좋은 맛을 내기 위한 아이디어를 제안할 수도 있습니다.

XAI는 AI와 인간 사이의 소통을 가능하게 하는 다리입니다.

이 기술 덕분에 우리는 AI의 결정을 맹목적으로 따르는 것이 아니라, 그 이유를 이해하고 비판적으로 검토하며 더 나은 방향으로 개선해나갈 수 있습니다.

오늘 이야기할 LIME과 SHAP은 이 XAI 기술들 중에서도 가장 널리 쓰이고 강력한 두 가지 방법입니다.

이 두 가지 도구가 우리의 복잡한 세상을 어떻게 더 투명하고 공정하게 만들고 있는지, 지금부터 구체적인 여행을 떠나보겠습니다.

이 여행은 더 이상 기술 전문가들만의 이야기가 아닙니다.

AI 시대를 살아가는 우리 모두가 반드시 알아야 할, 우리 자신을 위한 이야기입니다.

AI의 판단이 곧 나의 일이 되고, 나의 건강이 되고, 나의 기회가 되는 세상이니까요.

이제 첫 번째 사례를 통해, LIME이 어떻게 우리의 답답함을 풀어주는지 만나보시죠.

우리의 일상과 가장 밀접한 금융 분야에서 그 활약을 확인해볼 차례입니다.

AI가 내린 차가운 결정 앞에서 좌절했던 한 사람의 이야기에 귀 기울여 보세요.

그 속에서 기술이 어떻게 인간을 향한 따뜻한 설명이 될 수 있는지 발견하게 될 겁니다.

깜깜했던 AI의 마음속으로 들어갈 준비, 되셨나요?

이제 그 문을 활짝 열어보겠습니다.

내 대출 신청, 왜 거절당했는지 알려줄래요?

성실하게 직장을 다니던 김대리 님은 최근 전세자금 대출을 신청했습니다.

안정적인 직장과 꾸준한 소득이 있었기에 큰 걱정은 하지 않았죠. 하지만 며칠 뒤, 은행으로부터 돌아온 답변은 차가운 ‘거절’이었습니다.

답답한 마음에 은행에 이유를 물었지만, 상담원은 “AI 신용평가 시스템의 종합적인 판단 결과입니다”라는 원론적인 답변만 반복할 뿐이었습니다.

김대리 님은 좌절했습니다. 무엇이 문제인지, 어디를 개선해야 다음번에 대출을 받을 수 있는지 전혀 알 수 없었기 때문이죠.

마치 이유도 모른 채 불합격 통보를 받은 수험생의 심정이었습니다.

이것이 바로 설명 없는 AI가 만드는 전형적인 문제입니다.

하지만 만약 이 은행이 LIME이라는 기술을 도입했다면 어땠을까요?

LIME은 이름이 조금 어렵게 들리지만, 그 원리는 아주 간단하고 직관적입니다.

복잡한 전체 그림을 한 번에 이해하려 하지 않고, 지금 궁금한 딱 ‘한 지점’에만 집중해서 그 주변을 설명하는 방식입니다.

마치 아주 어려운 수학 문제를 틀렸을 때, 선생님이 처음부터 끝까지 모든 공식을 설명하는 대신, “자, 네가 틀린 바로 이 부분만 보자. 여기서는 이 공식을 썼어야지”라고 콕 집어 설명해주는 것과 같습니다.

LIME은 김대리 님의 ‘대출 거절’이라는 단 하나의 결정에 돋보기를 들이댑니다.

그리고 AI에게 수많은 ‘만약에’ 질문을 던지기 시작하죠.

“만약 김대리 님의 최근 카드 사용액이 조금 더 적었다면 결과가 바뀌었을까?”

“만약 현재 직장 재직 기간이 1년 더 길었다면 어땠을까?”

“만약 통장 잔고가 지금보다 조금 더 많았다면?”

이런 식으로 김대리 님의 상황을 미세하게 바꿔가며 AI의 답변이 어떻게 변하는지 수백, 수천 번을 확인합니다.

그리고 마침내 김대리 님의 대출 거절에 가장 결정적인 영향을 미친 ‘핵심 이유’ 세 가지를 찾아냅니다.

은행은 이제 김대리 님에게 이렇게 설명해줄 수 있습니다.

“김대리 님, AI 시스템의 분석 결과, 이번 대출이 거절된 가장 큰 이유는 다음과 같습니다. 첫째, 최근 3개월간 신용카드 현금서비스 이용 기록이 있었습니다. 둘째, 현재 직장에서의 재직 기간이 1년 미만으로 짧게 평가되었습니다. 셋째, 기대출 건수가 소득에 비해 다소 많은 것으로 나타났습니다.”

이제 상황은 완전히 달라졌습니다.

김대리 님은 더 이상 막막하지 않습니다. 무엇이 문제였는지 명확하게 알게 되었으니까요.

그는 앞으로 6개월간 현금서비스를 이용하지 않고, 꾸준히 재직 기간을 채우며, 기존 대출 일부를 상환하는 구체적인 계획을 세울 수 있습니다.

이것이 바로 LIME이 주는 힘입니다.

AI의 결정을 투명하게 만들어, 개인이 자신의 상황을 개선할 수 있는 ‘실질적인 정보’를 제공하는 것이죠.

은행 입장에서도 LIME은 필수적입니다.

고객의 불만을 줄이고 신뢰를 쌓을 수 있습니다. “컴퓨터가 그렇다는데요”라고 무책임하게 말하는 대신, “이런 부분들을 개선하시면 다음번에 좋은 결과를 얻으실 수 있습니다”라고 책임감 있는 안내를 할 수 있게 됩니다.

또한, LIME은 AI가 혹시나 이상한 편견을 가지고 있는지 잡아내는 역할도 합니다.

만약 AI가 특정 지역에 산다는 이유나 특정 학교를 졸업했다는 이유처럼 대출과 상관없는 정보로 사람을 차별하고 있다면, LIME의 설명 과정에서 그 부당함이 드러나게 됩니다.

이처럼 LIME은 ‘한 사람’의 구체적인 사례를 깊이 파고들어, AI의 결정을 명쾌하게 설명해주는 ‘개인 맞춤형 해설가’와 같습니다.

차가운 기술의 언어를 따뜻한 이해의 언어로 바꾸어주는 번역가이기도 합니다.

김대리 님의 사례는 단지 금융에만 국한되지 않습니다.

내가 지원한 회사에서 왜 서류 탈락했는지, AI 의사가 왜 나에게 특정 질병의 위험이 높다고 경고하는지 등, 우리 삶의 수많은 ‘왜?’라는 질문에 LIME은 명쾌한 답을 주기 시작할 겁니다.

AI가 내린 결정 앞에서 더 이상 혼자 답답해하지 않아도 되는 세상. LIME과 같은 설명가능 AI 기술이 바로 그 세상을 열어가고 있습니다.

은행은 어떤 고객을 가장 중요하게 생각할까요?

앞서 LIME이 김대리 님 개인의 대출 거절 이유를 속 시원하게 설명해주는 ‘현미경’ 역할을 했다면, 이번에 만나볼 SHAP은 숲 전체를 보여주는 ‘망원경’과 같습니다.

은행의 리스크 관리팀장은 고민에 빠졌습니다.

“우리 은행의 대출 승인 AI 모델은 꽤 정확하게 작동하고 있어. 하지만 전체적으로 어떤 고객을 더 선호하고, 어떤 요소를 가장 위험하다고 판단하는지 큰 그림을 보고 싶어. 그래야 미래의 전략을 세울 수 있을 텐데.”

LIME은 개별 고객의 사례를 설명하는 데는 탁월하지만, AI 모델의 전반적인 특징이나 행동 패턴을 알려주지는 못합니다.

이때 필요한 것이 바로 SHAP입니다.

SHAP은 게임 이론에서 비롯된 아주 흥미로운 아이디어를 사용합니다.

여러 명의 플레이어가 팀을 이루어 점수를 얻는 게임을 상상해 보세요. 게임이 끝난 후, 전체 점수에 각 플레이어가 얼마나 기여했는지 공정하게 배분해야 합니다.

SHAP은 AI의 예측 과정을 이 팀 게임과 같다고 봅니다.

고객의 나이, 소득, 직업, 부채, 신용 점수 등 수많은 정보들이 ‘플레이어’가 됩니다.

그리고 이들이 모여 ‘대출 승인’ 또는 ‘거절’이라는 최종 ‘점수’를 만들어냅니다.

SHAP의 역할은 이 게임에 참여한 모든 정보, 즉 플레이어들이 최종 결정에 각각 얼마나 긍정적인(+) 영향 또는 부정적인(-) 영향을 미쳤는지 그 기여도를 정확하게 계산해내는 것입니다.

은행 리스크 관리팀은 SHAP을 이용해 지난 1년간의 대출 심사 데이터 수만 건을 통째로 분석했습니다.

그리고 놀라운 사실들을 발견하게 됩니다.

SHAP 분석 그래프는 AI 모델의 마음속 지도를 선명하게 보여주었습니다.

가장 먼저, AI가 대출 승인에 가장 중요하게 생각하는 요소는 역시나 ‘소득 대비 부채 비율’이었습니다. 이 비율이 낮을수록 대출 승인에 압도적으로 긍정적인 영향을 미쳤죠. 이것은 예상했던 결과입니다.

하지만 두 번째로 중요한 요소는 뜻밖의 것이었습니다.

바로 ‘최근 6개월 내 신규 대출 조회 횟수’였습니다. 소득이 아무리 높아도 단기간에 여러 금융기관에 대출 조회를 한 사람들은 AI가 매우 위험한 신호로 판단하고 있었습니다.

이는 팀원들이 막연하게 느껴왔던 가설을 명확한 데이터로 증명해주었습니다.

더 흥미로운 발견도 있었습니다.

‘안정적인 직장’이라는 요소는 30대 후반 이상의 고객에게는 매우 큰 긍정적 영향을 주었습니다. 하지만 20대 사회초년생 고객에게는 그 영향력이 거의 없었습니다.

대신 20대 고객에게는 ‘소액이라도 꾸준한 저축 이력’이 훨씬 더 중요한 긍정적 요소로 작용했습니다.

이러한 SHAP의 분석 결과는 은행에 엄청난 가치를 제공합니다.

첫째, AI 모델에 대한 깊은 이해와 신뢰를 얻게 됩니다. AI가 단순히 점수를 계산하는 기계가 아니라, 어떤 논리적 기준으로 판단을 내리는지 알게 되면서 모델을 더 확신하고 운영할 수 있게 됩니다.

둘째, 비즈니스 전략을 완전히 바꿀 수 있습니다.

분석 결과를 바탕으로 은행은 20대 사회초년생을 위한 새로운 금융 상품을 기획할 수 있습니다.

‘재직 기간이 짧아도 괜찮아! 꾸준한 저축 습관만 보여줘!’와 같은 메시지로 젊은 고객들을 유치할 수 있는 것이죠.

셋째, AI 모델의 공정성을 확보하고 잠재적 편향을 찾아낼 수 있습니다.

만약 SHAP 분석 결과, AI가 특정 성별이나 출신 지역 같은 민감한 정보를 대출 결정에 중요하게 사용하고 있다는 사실이 드러난다면, 즉시 그 편향을 수정하여 더 공정한 모델을 만들 수 있습니다.

이처럼 SHAP은 개별적인 사례를 넘어, AI 시스템 전체의 작동 원리와 경향성을 파악하게 해주는 강력한 도구입니다.

LIME이 한 명의 고객에게 “당신이 대출을 거절당한 이유는 이것입니다”라고 설명한다면, SHAP은 은행장에게 “우리 AI는 이런 고객을 가장 선호하며, 이런 특징을 가장 위험하게 봅니다”라고 종합 보고서를 올려주는 셈입니다.

현미경과 망원경을 모두 가졌을 때, 우리는 비로소 AI라는 미지의 세계를 제대로 탐험하고 이해할 수 있게 됩니다.

의사 선생님을 돕는 AI, 정말 믿어도 될까요?

영상의학과 전문의 박 선생님은 오늘도 수백 장의 엑스레이, CT, MRI 사진과 씨름하고 있습니다.

사진 속 미세한 그림자 하나, 희미한 얼룩 하나를 놓치지 않기 위해 눈을 크게 뜨지만, 하루 종일 모니터를 보다 보면 피로가 쌓여 집중력이 흐트러지기도 합니다.

최근 병원에서는 의사들의 진단을 돕는 최신 의료 AI를 도입했습니다.

AI는 수백만 장의 의료 영상을 학습하여, 사람이 놓치기 쉬운 질병의 징후를 90%가 넘는 정확도로 찾아냅니다.

박 선생님이 한 환자의 폐 CT 사진을 AI에게 분석시킨 결과, 잠시 후 화면에 ‘악성 종양 의심(92% 확률)’이라는 경고 메시지가 떴습니다.

가슴이 철렁 내려앉는 순간입니다.

하지만 박 선생님은 선뜻 AI의 결과를 믿을 수 없었습니다.

“92%라는 숫자는 알겠어. 그런데 대체 이 넓은 사진 어디를 보고, 어떤 모양을 근거로 그런 판단을 내린 거지?”

의사의 진단은 환자의 생명과 직결됩니다. 단순히 ‘AI가 그렇다더라’라는 이유만으로 중대한 결정을 내릴 수는 없습니다.

AI의 판단 근거를 모른다면, 그것은 그저 또 하나의 참고자료일 뿐, 의사의 확신을 도와주는 결정적 파트너가 될 수는 없습니다.

바로 이 ‘신뢰의 위기’를 해결하기 위해 의료 AI 분야에서는 SHAP과 LIME 같은 설명가능 AI 기술이 필수적으로 사용됩니다.

설명가능 AI가 탑재된 새로운 시스템은 완전히 다른 경험을 제공합니다.

박 선생님이 같은 환자의 폐 CT 사진을 분석시키자, AI는 단순히 ‘악성 종양 의심(92%)’이라는 텍스트만 보여주지 않습니다.

대신, CT 사진 위에 붉은색의 ‘히트맵’을 겹쳐서 보여줍니다.

히트맵은 AI가 ‘악성 종양’이라고 판단하는 데 가장 결정적인 영향을 미친 영역을 시각적으로 강조해줍니다. 색이 짙고 붉을수록 AI가 더 주목하고 있다는 뜻입니다.

박 선생님은 히트맵이 집중적으로 표시된 폐의 특정 부분을 확대합니다.

그곳에는 정말로 주변 조직과 모양이 다른, 아주 작은 크기의 간유리 음영이 있었습니다. 인간의 눈으로는 자칫 놓칠 수도 있었던 희미한 신호였죠.

이제 AI의 경고는 더 이상 추상적인 숫자가 아닙니다.

그것은 “선생님, 바로 여기, 이 부분을 좀 더 자세히 봐주세요. 제가 보기엔 이 부분의 형태와 밀도가 의심스럽습니다”라고 말하는 똑똑한 후배 의사의 조언과 같습니다.

AI는 정답을 알려주는 것이 아니라, 의사가 정답을 찾는 과정에서 가장 중요한 단서를 찾아주는 역할을 하는 것입니다.

박 선생님은 AI가 지목한 부분을 중심으로 더욱 면밀하게 사진을 판독하고, 다른 각도에서 찍은 사진들과 비교하며 확신을 얻게 됩니다.

그리고 환자에게 추가적인 조직 검사가 필요하다는 결정을 내립니다.

이 과정에서 SHAP과 LIME은 각기 다른, 하지만 상호 보완적인 역할을 합니다.

LIME은 지금 보고 있는 ‘이 환자 한 명’의 사진에서 왜 AI가 이런 판단을 내렸는지, 즉 ‘국소적’인 설명을 제공합니다. 히트맵을 통해 특정 픽셀 영역이 결정에 미친 영향을 보여주는 것이 대표적인 예입니다.

반면, SHAP은 이 AI 모델이 ‘전체적으로’ 어떤 특징들을 중요하게 생각하는지 ‘종합적’인 설명을 제공합니다.

예를 들어, 의료 AI 개발팀이 SHAP을 이용해 모델을 분석하면 이런 사실을 알 수 있습니다.

“우리 AI는 종양의 ‘경계가 불분명한 정도’를 가장 중요한 악성 판단 기준으로 삼고 있으며, 그 다음으로는 ‘내부 석회화 여부’를 중요하게 본다.”

이러한 정보는 의사들이 AI의 특징을 이해하고 교육하는 데 큰 도움이 됩니다.

“아, 이 AI는 이런 특징을 잘 찾아내는구나. 그럼 이런 종류의 질병을 판독할 때 특히 유용하겠군”이라고 생각할 수 있게 되는 것이죠.

또한 AI가 만약 오진을 했다면, 설명가능 AI는 그 원인을 찾는 데 결정적인 역할을 합니다.

예를 들어, AI가 사진의 노이즈나 촬영 장비의 특정 표시를 종양으로 잘못 인식했다면, 히트맵은 엉뚱한 부분을 붉게 표시할 겁니다.

개발자들은 이것을 보고 AI가 잘못된 것을 학습했다는 사실을 깨닫고 모델을 수정할 수 있습니다.

설명가능 AI는 의사와 AI 사이에 가장 중요한 ‘신뢰’라는 다리를 놓습니다.

AI는 의사를 대체하는 것이 아니라, 의사의 눈을 더 밝혀주고 지식을 더 확장시켜주는 최고의 파트너가 됩니다.

기술에 대한 막연한 불안감은 사라지고, 환자를 살리기 위한 가장 강력한 팀이 탄생하는 순간입니다.

이것이 바로 설명가능 AI가 만들어가는 미래 의료의 풍경입니다.

VIP 고객이 말없이 떠나는 진짜 이유는 무엇일까요?

한 온라인 쇼핑몰의 마케팅 팀장은 요즘 고민이 많습니다.

매년 꾸준히 큰 금액을 사용하던 우수 VIP 고객들이 하나둘씩 조용히 발길을 끊고 있기 때문입니다.

특별한 불만 접수도 없었고, 눈에 띄는 사건도 없었는데 마치 약속이라도 한 듯이 서서히 사라지고 있습니다.

팀은 ‘고객 이탈 예측 AI 모델’을 운영하고 있었습니다.

이 AI는 고객의 최근 구매 이력, 접속 빈도, 장바구니 패턴 등을 분석하여, 곧 떠나갈 것 같은 고객에게 ‘이탈 위험 높음’이라는 꼬리표를 붙여줍니다.

하지만 이 꼬리표만으로는 부족했습니다.

한 VIP 고객인 ‘이수진’ 님에게 ‘이탈 위험 높음’ 경고가 떴습니다. 마케팅팀은 부랴부랴 20% 할인 쿠폰을 문자로 보냈습니다.

하지만 이수진 님은 쿠폰을 사용하지 않았고, 결국 한 달 뒤 완전히 접속을 끊었습니다.

무엇이 문제였을까요? 팀은 그 이유를 알지 못해 답답했습니다.

이 쇼핑몰이 LIME을 도입하면서, 모든 것이 바뀌기 시작했습니다.

이제 AI가 ‘이수진’ 고객에게 ‘이탈 위험 높음’ 경고를 보낼 때, 그 이유를 함께 설명해줍니다.

LIME이 이수진 님의 데이터를 집중 분석하여 찾아낸 핵심 이유는 다음과 같았습니다.

첫째, ‘최근 한 달간 앱 접속 횟수는 높았으나, 실제 구매로 이어진 비율이 급격히 감소함.’

둘째, ‘특정 상품(아기용품) 페이지에서 머무는 시간은 길었지만, 장바구니에 담았다가 삭제하는 행동을 3회 반복함.’

셋째, ‘지난주 고객센터에 배송 관련 문의를 남겼으나, 아직 ‘미해결’ 상태로 남아있음.’

이 설명을 본 마케팅 팀장의 머릿속에 번개가 쳤습니다.

이수진 님은 단순히 가격 때문에 떠나려던 것이 아니었습니다. 그녀는 아기용품을 사고 싶었지만 무언가 망설이고 있었고, 결정적으로 최근 배송 문제로 불편함을 겪었던 것입니다.

이런 상황에서 무작정 20% 할인 쿠폰을 보내는 것은 아무런 의미가 없었습니다.

팀은 LIME의 설명을 바탕으로 완전히 다른 접근을 시도합니다.

먼저 고객센터에서 이수진 님의 미해결 문의를 최우선으로 처리하고, 담당자가 직접 사과와 함께 문제를 해결해줍니다.

그리고 나서, 마케팅팀은 이수진 님에게 개인화된 메시지를 보냅니다.

“고객님, 최근 배송으로 불편을 드려 죄송합니다. 혹시 찾으시는 아기용품이 있으셨나요? 고객님께서 자주 보시던 상품과 함께 쓰기 좋은 신제품 샘플을 보내드립니다.”

이것은 그냥 할인 쿠폰과는 차원이 다른 경험입니다. 나의 불편함을 알아주고, 나의 관심사를 이해해주는 세심한 배려에 이수진 님의 마음은 다시 움직이기 시작합니다.

LIME은 이처럼 개별 고객의 마음속을 들여다보고, 그들이 정말로 원하는 것이 무엇인지, 그들을 불편하게 하는 것이 무엇인지 알려주는 ‘고객 심리 분석가’ 역할을 합니다.

여기서 한 걸음 더 나아가, SHAP은 이 쇼핑몰의 근본적인 문제를 진단합니다.

마케팅 팀장은 LIME으로 몇몇 고객을 붙잡는 데는 성공했지만, 왜 자꾸 VIP 고객들이 떠나려고 하는지 그 근본 원인이 궁금했습니다.

SHAP을 이용해 이탈 위험이 높았던 고객 수천 명의 데이터를 전체적으로 분석했습니다.

결과는 충격적이었습니다.

고객 이탈에 가장 큰 영향을 미치는 부정적 요소는 ‘가격’이나 ‘경쟁사 이벤트’가 아니었습니다. 압도적인 1위는 바로 ‘고객센터 문의 후 24시간 내 미해결 건수’였습니다.

즉, 고객들은 비싼 가격 때문이 아니라, 문제가 생겼을 때 제대로 해결해주지 않는 ‘나쁜 경험’ 때문에 떠나가고 있었던 것입니다.

이 SHAP 분석 결과는 쇼핑몰의 전략 방향을 180도 바꾸어 놓았습니다.

회사는 마케팅 예산을 줄이는 대신, 그 돈을 고객센터 인력을 충원하고 시스템을 개선하는 데 투자하기 시작했습니다. AI 챗봇을 도입하여 24시간 응대 체계를 만들고, 상담원 교육을 강화했습니다.

LIME이 떠나려는 고객 한 명 한 명의 손을 붙잡는 ‘소방수’라면, SHAP은 애초에 불이 나지 않도록 건물의 문제를 진단하고 개선하는 ‘건축가’와 같습니다.

이 두 가지 설명가능 AI 기술의 조합은 기업이 고객을 피상적으로 이해하는 것을 넘어, 깊은 관계를 맺고 근본적인 문제를 해결하도록 돕습니다.

결국 기술의 발전은 단순히 더 많은 물건을 파는 것이 아니라, 한 사람 한 사람의 마음을 더 깊이 이해하는 방향으로 나아가고 있는 것입니다.

자율주행 자동차는 무엇을 보고 멈추는 걸까요?

어두운 밤, 비가 내리는 고속도로를 자율주행 자동차 한 대가 달리고 있습니다.

탑승자는 편안하게 뒷좌석에서 책을 읽고 있습니다. 자동차는 스스로 차선을 유지하고, 앞차와의 간격을 조절하며 부드럽게 주행합니다.

그때, 자동차가 갑자기 경고음과 함께 부드럽지만 단호하게 속도를 줄이며 멈춰 섰습니다.

놀란 탑승자가 전방을 주시했지만, 도로 위에는 아무것도 보이지 않았습니다. 동물의 사체도, 떨어진 낙하물도 없었죠.

잠시 후, 자동차는 안전을 확인하고 다시 정상적으로 주행을 시작했습니다.

탑승자는 안도했지만, 한편으로는 찜찜한 기분이 들었습니다.

“대체 차는 뭘 보고 멈춘 거지? 만약 이게 오류라면, 앞으로 믿고 탈 수 있을까?”

자율주행 기술의 핵심은 ‘신뢰’입니다. 우리는 눈에 보이지 않는 AI 운전사에게 우리의 생명을 맡기는 셈입니다.

이 운전사가 어떤 판단을 내리는지, 왜 그런 행동을 하는지 이해할 수 없다면 그 누구도 선뜻 운전대를 넘겨주지 않을 것입니다.

이것이 자율주행차 개발에서 설명가능 AI가 가장 중요한 기술 중 하나로 꼽히는 이유입니다.

자동차 개발 연구소의 엔지니어들은 방금 전의 주행 기록을 정밀하게 분석합니다. 그들이 사용하는 도구가 바로 LIME과 SHAP입니다.

먼저, 자동차가 급정거했던 바로 그 ‘순간’의 데이터를 LIME을 통해 분석합니다.

LIME은 당시 자동차의 카메라, 라이다, 레이더 등 각종 센서가 수집한 방대한 데이터를 샅샅이 훑어봅니다.

그리고 AI의 ‘정지’ 결정에 가장 큰 영향을 미친 입력 데이터가 무엇이었는지 시각적으로 보여줍니다.

분석 결과, 카메라 영상의 특정 부분에 붉은색 하이라이트가 표시되었습니다.

엔지니어들이 그 부분을 확대하자, 어둠과 빗줄기 속에서 언뜻 보면 그냥 도로의 얼룩처럼 보이는 형체가 나타났습니다.

그것은 바로 폭우로 인해 찢어져 도로 위에 널브러져 있던 거대한 검은색 비닐이었습니다.

AI의 눈에는, 이 검은 비닐이 어둠 속에서 갑자기 튀어나오는 동물이나 사람의 형상과 아주 유사한 특징을 보였던 것입니다.

특히 비바람에 비닐이 꿈틀거리는 모습은 AI가 학습했던 ‘위험한 움직임’ 패턴과 매우 비슷했습니다.

이제 엔지니어들은 AI가 왜 멈췄는지 명확하게 이해했습니다. 그것은 오류가 아니라, 최악의 상황을 가정한 ‘안전 최우선’의 판단이었습니다.

LIME은 이처럼 특정 상황, 특정 결정의 원인을 명확하게 밝혀주는 ‘사건 현장 감식반’ 역할을 합니다.

그렇다면 SHAP은 어떤 역할을 할까요?

엔지니어들은 SHAP을 이용해 자율주행 AI 모델 전체의 특징을 분석합니다. 수백만 킬로미터에 달하는 주행 데이터를 분석하여, AI가 일반적으로 어떤 상황을 가장 위험하게 생각하는지, 어떤 센서의 정보를 가장 신뢰하는지 큰 그림을 파악합니다.

SHAP 분석 결과, 다음과 같은 흥미로운 사실들이 밝혀졌습니다.

“우리 AI는 맑은 날 낮에는 카메라 센서의 정보를 80% 신뢰하지만, 비 오는 날 밤에는 카메라의 신뢰도를 30%로 낮추고, 대신 라이다 센서의 정보를 70%까지 신뢰하는구나.”

“AI는 전방 차량의 ‘브레이크등’ 불빛 변화를 차선 변경이나 장애물 출현보다 훨씬 더 중요한 감속 판단 기준으로 삼고 있군.”

이런 정보는 AI 모델을 개선하고 고도화하는 데 결정적인 단서가 됩니다.

예를 들어, ‘검은 비닐’ 사례를 학습 데이터에 추가하여, AI가 앞으로는 비닐과 실제 위험물을 더 잘 구분하도록 훈련시킬 수 있습니다.

또한, 특정 센서에 대한 의존도가 너무 높다면, 다른 센서와의 균형을 맞추도록 모델을 조정할 수도 있습니다.

설명가능 AI는 단순히 엔지니어들만을 위한 기술이 아닙니다.

미래에는 우리가 자동차의 디스플레이를 통해 AI의 판단 근거를 실시간으로 확인할 수도 있을 겁니다. “전방 200미터 지점의 그림자를 낙하물로 의심하여 예방적으로 감속합니다”와 같은 메시지를 보여주는 것이죠.

이러한 설명은 탑승자에게 심리적인 안정감을 주고, AI 운전사에 대한 깊은 신뢰를 쌓게 합니다.

자율주행의 완성은 단순히 자동차가 스스로 운전하는 기술에서 그치지 않습니다. 그 운전 과정을 인간이 이해하고 신뢰할 수 있을 때, 비로소 진정한 자율주행 시대가 열리는 것입니다.

설명가능 AI는 그 신뢰를 만드는 핵심 열쇠입니다.

AI가 내 이력서를 떨어뜨린 건, 혹시 편견 때문 아닐까요?

취업 준비생 박지혜 님은 요즘 자신감을 많이 잃었습니다.

누구보다 열심히 스펙을 쌓았고, 자기소개서도 수십 번을 고쳐 썼지만, 여러 회사에 지원한 결과는 번번이 서류 전형 탈락이었습니다.

특히 그녀가 꼭 가고 싶었던 한 대기업은 최근 ‘AI 채용 시스템’을 도입해 모든 서류를 AI가 1차로 검토한다고 알려져 있었습니다.

지혜 님은 문득 억울한 생각이 들었습니다.

“혹시 AI가 나도 모르는 편견을 가지고 나를 떨어뜨린 건 아닐까? 내가 나온 학교가 소위 명문대가 아니라서? 아니면 내가 여자라서?”

이러한 의심은 개인의 불안감을 넘어 심각한 사회적 문제로 이어질 수 있습니다. AI가 인간 사회에 존재했던 차별과 편견을 그대로 학습하고, 오히려 더 교묘하고 대규모로 증폭시킬 수 있다는 우려 때문입니다.

인사팀도 답답하기는 마찬가지입니다.

그들은 공정한 채용을 위해 AI를 도입했지만, AI가 어떤 기준으로 합격자와 불합격자를 가르는지 정확히 설명할 수 없다면, ‘공정성’ 시비에 휘말릴 수밖에 없습니다.

“우리 AI는 편견 없이 오직 역량만 봅니다”라고 말해도, 근거가 없다면 공허한 외침일 뿐입니다.

이 ‘AI의 편견’이라는 어두운 그림자를 밝히는 데 SHAP이 결정적인 등대 역할을 합니다.

이 대기업의 인사팀은 SHAP을 이용해 자사의 AI 채용 시스템을 정밀하게 분석하기로 했습니다.

지난 1년간의 서류 전형 합격자와 불합격자 수만 명의 데이터를 SHAP으로 분석하여, AI가 어떤 요소들을 합격/불합격 결정에 중요하게 사용했는지 그 기여도를 모두 계산했습니다.

분석 결과는 인사팀에게 큰 충격을 주었습니다.

물론 ‘관련 직무 경험’, ‘프로젝트 성공 사례’, ‘자격증’과 같은 합리적인 요소들이 합격에 높은 긍정적 영향을 미치고 있었습니다. 이는 의도했던 대로입니다.

하지만 문제점도 명확하게 드러났습니다.

SHAP 분석 그래프에서 ‘출신 대학교 이름’이 예상보다 훨씬 높은 중요도를 차지하고 있었습니다. 심지어 특정 몇몇 대학교 이름은 그 자체만으로도 합격에 상당한 플러스 점수를 주고 있었습니다.

더 심각한 문제는 ‘성별’ 정보였습니다.

이력서에서 직접적으로 성별을 입력받지는 않았지만, AI는 ‘군필 여부’나 특정 동아리 활동(예: 여대 동아리) 같은 정보를 통해 지원자의 성별을 유추했습니다.

그리고 특정 직군에서 남성 지원자에게 미세하게 더 높은 점수를 주고 있다는 사실이 밝혀졌습니다.

AI는 악의를 가지고 차별한 것이 아니었습니다.

AI는 과거 수년간의 합격자 데이터를 학습했습니다. 그런데 과거에 특정 대학 출신이나 남성 합격자가 많았다면, AI는 ‘아, 이런 특징을 가진 사람이 우수한 인재구나’라고 순진하게 잘못 배워버린 것입니다.

인간의 역사적 편견이 데이터에 녹아 있었고, AI는 그 편견을 그대로 물려받은 셈이죠.

SHAP은 이처럼 AI 모델 깊숙한 곳에 숨어있는 편견과 불공정한 규칙을 투명하게 드러내 주는 ‘AI 감사관’의 역할을 합니다.

이 분석 결과를 바탕으로 인사팀은 즉각적인 조치에 들어갔습니다.

먼저, AI가 학습하는 데이터에서 출신 학교 이름, 군필 여부, 동아리 이름 등 편견을 유발할 수 있는 정보들을 모두 제거하거나 익명으로 처리했습니다.

그리고 수정된 데이터로 AI 모델을 다시 학습시켰습니다.

그런 다음 다시 SHAP 분석을 실행하여, 더 이상 불합리한 요소들이 채용 결정에 영향을 미치지 않는 것을 확인하고 나서야 새로운 AI 채용 시스템을 재가동했습니다.

이러한 노력 덕분에, 기업은 이제 지원자들에게 자신 있게 말할 수 있습니다.

“우리 회사의 AI는 당신의 배경이 아닌 오직 당신의 역량만을 봅니다. 이 그래프가 바로 그 증거입니다.”

설명가능 AI는 단순히 기술의 투명성을 높이는 것을 넘어, 우리 사회를 더 공정하고 정의로운 방향으로 나아가게 하는 중요한 철학적 도구가 됩니다.

AI 시대의 공정함은 ‘결과’만으로 판단할 수 없습니다. 그 ‘과정’이 투명하게 설명될 수 있을 때, 우리는 비로소 그 기술을 신뢰하고 우리 사회의 일원으로 받아들일 수 있을 것입니다.

결국, AI의 설명서는 우리 손에 달려있어요

지금까지 우리는 LIME과 SHAP이라는 두 개의 특별한 렌즈를 통해 AI의 마음속을 여행했습니다.

LIME이라는 현미경을 통해 내 대출이 왜 거절되었는지, VIP 고객 한 명이 왜 떠나려 하는지 등 아주 구체적이고 개인적인 질문에 대한 답을 찾았습니다.

SHAP이라는 망원경을 통해서는 은행이 어떤 고객을 선호하는지, 우리 회사 AI에 숨겨진 편견은 없는지 등 시스템 전체를 아우르는 거대한 질문의 실마리를 발견했습니다.

이 두 가지 도구는 서로 다른 곳을 보지만, 결국 같은 목표를 향하고 있습니다.

바로 AI와 인간 사이의 ‘소통과 신뢰’를 만드는 것입니다.

설명가능 AI는 더 이상 컴퓨터 공학자나 데이터 과학자들만의 전유물이 아닙니다.

은행의 대출 심사 담당자, 병원의 의사, 기업의 마케팅 담당자와 인사팀장, 그리고 AI가 내린 결정을 받아들여야 하는 우리 모두를 위한 기술입니다.

AI가 내린 결정에 대해 “왜?”라고 질문하고, 그 답을 이해할 수 있는 권리. 이것은 AI 시대를 살아가는 우리 모두가 가져야 할 기본적인 권리일지도 모릅니다.

자동차를 살 때, 우리는 그 차의 성능과 안전 기능에 대한 상세한 설명서를 받습니다. 어떤 전자제품을 사더라도 그 사용법을 꼼꼼히 읽어보죠.

우리의 삶에 점점 더 깊이 관여하는 AI라는 강력한 기술에 대해, 우리는 왜 그 설명서를 요구하는 데 주저하고 있을까요?

LIME과 SHAP은 바로 그 설명서를 쓰는 도구입니다. 복잡한 수식과 코드로 가득 찬 설명서가 아니라, 우리 모두가 이해할 수 있는 이야기와 그림으로 된 친절한 안내서 말입니다.

중요한 것은, 이 설명서는 저절로 주어지지 않는다는 사실입니다.

우리가 기업과 사회에 AI의 투명성을 요구하고 그 설명을 궁금해할 때, 비로소 기업들은 설명가능 AI 기술에 더 많이 투자하고 그 결과를 우리에게 공개할 것입니다.

AI가 내린 결정을 그저 수동적으로 받아들이는 대신, “잠깐만요, 왜 그런 결정을 내렸는지 설명해주실 수 있나요?”라고 질문하는 용기.

바로 그 작은 질문 하나하나가 모여 더 투명하고, 더 공정하며, 더 신뢰할 수 있는 AI 시대를 만들어갈 것입니다.

이제 AI의 블랙박스는 더 이상 두려움의 대상이 아닙니다.

그것은 우리가 LIME과 SHAP이라는 열쇠를 가지고 언제든 열어볼 수 있는, 무한한 가능성으로 가득 찬 상자입니다.

그 상자를 여는 주체는 바로 우리 자신입니다.

AI의 설명서를 쓰는 사람도, 그 설명서를 읽고 더 나은 세상을 만드는 사람도 결국 우리이기 때문입니다.

우리는 이제 막 새로운 언어를 배우기 시작했습니다. AI와 대화하는 언어, 그 마음을 이해하는 언어를 말이죠.

인공지능이라는 단어 앞에서 막연한 두려움을 느꼈던 시간이 있었습니다. 내 일자리를 빼앗고, 인간을 지배할지도 모른다는 상상에 밤잠을 설치기도 했죠.

하지만 오늘 우리가 함께 살펴본 이야기들은 조금 다른 미래를 보여줍니다.

AI는 우리의 질문에 답하기 위해 노력하고 있습니다. 자신의 생각을 설명하고, 우리와 더 깊이 소통하고 싶어 합니다. 다만 우리가 그 방법을 몰랐을 뿐입니다.

LIME과 SHAP과 같은 설명가능 AI 기술은 AI와 인간이 함께 성장하는 길을 열어주고 있습니다.

AI의 놀라운 계산 능력과 인간의 깊이 있는 통찰력이 만날 때, 우리는 이전에는 해결할 수 없었던 복잡한 문제들을 풀어나갈 수 있을 겁니다.

AI가 내린 차가운 결정에 상처받는 대신, 그 설명을 통해 나아갈 길을 찾는 세상.

AI의 숨겨진 편견을 찾아내 고침으로써 더 공정한 기회를 만드는 세상.

AI 의사의 똑똑한 조언을 신뢰하며 더 건강한 삶을 누리는 세상.

이것이 바로 설명가능 AI가 꿈꾸는 미래이며, 우리가 함께 만들어가야 할 세상입니다.

기술은 결코 우리를 기다려주지 않습니다. 하지만 두려워하며 뒷걸음질 칠 필요는 없습니다.

그저 작은 호기심을 가지고 한 걸음만 다가가 보세요. 그 속을 들여다보고, 질문을 던져보세요.

AI는 정복해야 할 대상이 아니라, 우리가 길들여야 할 강력한 도구이자 이해해야 할 똑똑한 파트너입니다.

그 사용 설명서는 바로 우리의 질문과 관심 속에 있습니다. 오늘, 여러분의 마음속에 AI에게 던지고 싶은 작은 질문 하나가 피어났기를 바랍니다.

industry ai
강민준 AI 플랫폼 아키텍트

Architecture x Product Strategy

AIBEVY에서 실전 AI와 데이터 주제를 다룹니다. 복잡한 기술 변화를 실무 관점에서 쉽게 전달합니다.

이 글이 유익하셨나요?

0

토론

댓글

관련 글

더 보기 →