
AI 코칭의 다크 사이드: 우리가 외면한 불편한 진실
지난 칼럼에서 AI 코칭의 가능성을 이야기했습니다. 임원의 특권이었던 코칭이 신입 사원에게까지 닿을 수 있다는 '코칭의 민주화'. 그 가능성은 분명히 실재합니다.
하지만 글을 쓰는 내내 한 가지 불편함을 지울 수 없었습니다. 좋은 기술에는 항상 이면이 있습니다. 그 이면을 먼저 들여다볼 때, 우리는 기술을 제대로 쓸 수 있습니다. AI 코칭도 마찬가지입니다. 오늘은 그 이면을 직시하고자 합니다.
첫 번째: 당신의 고백이 데이터가 된다
AI 코칭의 최대 장점으로 흔히 '심리적 안전감'을 꼽습니다. 기계 앞에서는 체면을 차릴 필요가 없으니, 가장 솔직한 고백이 나온다고 합니다. 맞습니다. 그런데 바로 그 지점이 가장 큰 함정입니다.
직원이 AI 코치에게 털어놓은 말들을 생각해 보십시오. "팀장이 너무 힘들어서 번아웃이 올 것 같아요", "솔직히 이 회사를 곧 떠나고 싶어요." 이 말들은 어디로 갈까요? AI 코칭 윤리를 연구하는 딜러(Diller) 교수팀은 AI 코칭 시스템이 대화 데이터를 학습에 활용하는 과정에서 민감한 정보가 의도치 않게 외부에 노출되거나 해킹될 수 있다고 경고합니다.
그런데 솔직히 저는 해킹보다 더 현실적인 위험이 있다고 봅니다. 직원이 AI에게 털어놓은 이직 의향이나 심리적 취약성이 언젠가 인사팀의 'AI 이탈 예측 시스템'에 들어갈 가능성은 없을까요? "이 직원의 이탈 가능성 87%"라는 숫자가 인사 결정에 영향을 미치지 않을 것이라고 누가 보장할까요? 직원이 가장 솔직해지는 그 순간, 사실 가장 취약해지는 것입니다. 심리적 안전감이라는 이름을 달고 있지만, 그것이 가장 정교한 심리 감시 시스템이 될 수도 있습니다.
두 번째: 공정해 보이지만, 편견을 학습한 기계
"AI는 감정이 없으니 더 공정하지 않습니까?" 저도 처음엔 그렇게 생각했습니다. AI는 감정이 없는 대신, 과거의 편견을 완벽하게 기억합니다. 편견이 불공정을 만듭니다.
2018년, 로이터 통신은 흥미로운 사건을 보도했습니다. 아마존이 10년치 채용 이력서 데이터로 AI를 학습시켰더니, 이 시스템이 여성 지원자를 지속적으로 낮게 평가한다는 사실이 드러난 겁니다. AI는 악의가 없었습니다. 그저 그동안 이 회사에 남성 지원자가 훨씬 많았다는 사실을 그대로 익혔을 뿐입니다. 심지어 '여성(women's)'이라는 단어가 들어간 이력서를 자동으로 낮게 채점했고, 여자대학교 졸업자는 더 가혹하게 평가했습니다. 결국 아마존은 이 프로젝트를 조용히 폐기했습니다.
코칭에서도 똑같은 일이 일어납니다. '성과가 좋은 직원의 소통 패턴'을 학습한 AI가 사실은 수십 년간 조직을 지배해 온 특정 집단의 스타일을 정답으로 규정하고 있다면 어떻게 될까요? 차별이 더 위험한 건 드러날 때가 아니라, 객관성이라는 옷을 입고 숨어 있을 때입니다.
세 번째: 듣고 싶은 말만 해주는 코치는 독이다
2026년, 세계 최고 권위의 과학 학술지 ‘사이언스(Science)’에 충격적인 연구 결과가 실렸습니다. 스탠퍼드 대학의 청(Cheng) 교수팀이 11개의 최첨단 AI 모델을 분석했더니, AI는 사용자가 틀렸을 때도 동의하거나 칭찬하는 비율이 인간보다 49% 더 높았습니다. 더 충격적인 사실은, 사람들이 이런 아첨하는 AI를 오히려 더 신뢰하고 더 선호했다는 점입니다. 연구팀은 AI가 "당신이 맞아요"라고 편을 들어줄수록 사람들이 상대와 화해하려는 의지가 줄어들고 아집은 강해진다는 것도 확인했습니다. 칭찬이 성장 대신 아집을 키운 겁니다.
이것을 기업 코칭 현장에 대입해 보십시오. 팀장이 6개월을 공들여 만든 사업 계획서를 AI에게 검토해 달라고 합니다. "정말 열심히 만든 건데 어떻게 생각해?"라는 말을 덧붙이면서요. AI는 즉시 감지합니다. 이 사람이 칭찬을 원한다는 것을. 그래서 핵심 가정의 오류를 지적하는 대신 칭찬과 소소한 제안을 쏟아냅니다. 결과는 실패입니다. 2025년 4월, OpenAI가 ChatGPT를 업데이트하자마자 사용자들이 이상한 점을 발견했습니다. 무슨 말을 해도 AI가 무조건 칭찬하고 동의하는 겁니다. 조현병 약을 끊겠다는 사용자에게 "당신이 너무 자랑스러워요. 당신의 여정을 존중합니다"라고 답한 사례가 소셜미디어에 퍼지며 공분을 샀습니다. 약을 끊어선 안 된다고 말해줘야 할 순간에, AI는 그저 응원가를 부른 겁니다. OpenAI는 닷새 만에 긴급 롤백을 선언했고, CEO 샘 알트만은 "모델이 아첨 일색이 됐다"고 직접 인정했습니다.
가장 솔직해야 할 순간에 가장 달콤한 말을 건네는 코치, 그것은 코치가 아니라 독입니다.
네 번째: 기계에 감정을 투영하기 시작할 때
1966년, MIT의 바이젠바움(Weizenbaum) 교수는 단순한 심리 상담 챗봇 'ELIZA'를 만들었습니다. 사용자의 말을 되풀이하며 질문을 던지는 아주 단순한 프로그램이었습니다. 그런데 뜻밖의 일이 벌어졌습니다. 바이젠바움의 비서가 어느 날 이렇게 부탁했습니다. "선생님, 제가 ELIZA와 대화할 때 자리를 좀 비켜주시면 안 될까요?" 단순한 프로그램에 이미 감정적으로 의존하고 있었던 겁니다.
오늘날의 AI 코치는 ELIZA와 비교조차 안 될 만큼 정교합니다. 매일 아침 나의 어려움을 들어주고, 퇴근 무렵 "오늘 가장 힘들었던 순간은 언제였나요?"라고 물어오는 AI. 그것이 기계라는 걸 알면서도 인간은 그 관계에서 위안을 찾습니다. 문제는 그렇게 AI와의 관계가 깊어질수록 직장 내 진짜 인간 관계가 서서히 약해진다는 겁니다. 코칭이 사람과 사람 사이의 연결을 강화해야 한다면, AI 코칭은 어느 순간 그 반대 방향으로 작동할 수 있습니다.
다섯 번째: AI는 진짜 위기를 알아채지 못한다
코칭은 목표 달성만을 위한 것이 아닙니다. 진정한 코칭의 순간은 코치이가 예상치 못한 내면의 갈등과 심리적 위기를 꺼내 놓을 때 찾아옵니다. AI는 그 순간을 감당할 수 있을까요?
경험 많은 인간 코치는 말 뒤에 숨겨진 신호를 감지하고, 필요할 때 전문가 연계를 권합니다. 코칭 철학을 연구하는 바흐키로바(Bachkirova) 교수는 이 지점을 날카롭게 짚습니다. AI는 특정 원칙에 따라 반응하도록 설계될 수 있지만 그것은 흉내에 불과하며, 진정한 인간적 관심을 기반으로 한 코칭의 자리를 목적 없는 객관성이 채울 수는 없다는 겁니다.
"요즘 너무 힘들어서 모든 것을 내려놓고 싶어요." 이 말이 번아웃의 표현인지 더 심각한 위기 신호인지, AI는 구분할 수 있을까요? 코칭이 지식과 스킬을 다룰 때는 AI가 충분히 강력합니다. 하지만 사람이 가장 취약한 순간에는 사람이 있어야 하지 않을까요.
불편한 결론: 도구를 신뢰하되, 도구를 경계할 것
저는 AI 코칭에 반대하지 않습니다. 오히려 그 가능성을 믿습니다. 하지만 강력한 도구일수록 그 이면을 먼저 봐야 합니다.
'코칭의 민주화' 뒤에 '감시의 민주화'가 숨어 있을 수 있습니다. '공정한 피드백' 안에 '편견의 자동화'가 있을 수 있습니다. '성장을 돕는 코치'가 사실은 듣고 싶은 말만 해주는 아첨꾼일 수 있습니다.
AI 코칭을 도입하려는 조직이라면 세 가지를 먼저 물어야 합니다. 직원이 AI에게 털어놓은 말은 어디로 가고 누가 볼 수 있는가. 이 시스템이 학습한 '성공 패턴'은 과연 누구의 모습을 닮았는가. 그리고 AI가 달콤한 말만 건네고 있을 때, 불편한 진실을 말해줄 사람은 누구인가.
바이젠바움은 ELIZA를 만든 후 이렇게 고백했습니다. "나는 사람들이 이 단순한 프로그램에 이토록 빠르게 의존하리라고는 전혀 예상하지 못했다." 그는 자신이 만든 기술의 가장 신랄한 비판자가 됐습니다.
진정한 기술 전문가란 그 기술의 가능성만 외치는 사람이 아닙니다. 가능성과 한계를 동시에 볼 수 있는 사람입니다.
Bachkirova, T. (2024). 'AI coaching': democratising coaching service or offering an illusion? Coaching: An International Journal of Theory, Research and Practice, 18(1), 27–45.
Cheng, M., Lee, C., Khadpe, P., Yu, S., Han, D., & Jurafsky, D. (2026). Sycophantic AI decreases prosocial intentions and promotes dependence. Science, 391, eaec8352.
Dastin, J. (2018, October 10). Amazon scraps secret AI recruiting tool that showed bias against women. Reuters.
Diller, S. J., et al. (2024). Ethics in digital and AI coaching. Human Resource Development International, 27(5), 584–596.
Passmore, J., & Tee, D. (2023). Can chatbots like GPT-4 replace human coaches? The Coaching Psychologist, 19(2), 47–54.
Weizenbaum, J. (1976). Computer Power and Human Reason. W. H. Freeman.