Social & Emotional Impact of Gen AI in Schools

2025. 12. 21. 11:59AI_Digital

 

 

 

Section 1. 무엇이 걸려 있는가 (What’s at Stake)

AI와 학습의 가치 (AI and the Value of Learning)

AI가 점점 더 일상화되면서, 교수 방법을 개선하고 학생의 학습 성과를 높이기 위한 다양한 AI 기반 보조·관리 도구들이 빠르게 확산되고 있다. 그러나 교사가 퀴즈 제작이나 학습 진도 관리와 같은 업무에서 AI에 의존하고, 학생들이 과제나 평가 수행을 위해 AI를 활용하는 상황은 교육의 본질적 진정성(authenticity) 이 약화될 수 있다는 우려를 낳는다.

Biesta(2010)는 『측정의 시대의 좋은 교육(Good Education in an Age of Measurement)』에서 교육을 ‘학습(learning)’으로만 축소하는 이른바 ‘학습화(learnification)’ 현상을 비판한다. 즉, 교육을 특정 정보나 기술을 개인이 숙달하는 과정으로만 이해할 경우, 사회화, 협력, 호기심과 주체성을 지닌 전인적 인간의 형성이라는 교육의 핵심적 차원이 간과된다는 것이다. Holmes 등(2022)의 지적처럼, 현재 교육에서 활용되는 개인화 AI는 학습의 협소한 측면에 집중한 나머지 학습자와 교육자의 사회·정서적 안녕이라는 더 넓은 교육적 목표를 의도치 않게 소홀히 하고 있다.

본 연구는 교육 맥락에서의 사회·정서적 안녕이 단순한 정신건강 지원을 넘어, 진정성 있는 사회적 관계 형성, 창의적·비판적 사고, 신뢰의 구축과 같은 학습의 핵심 가치와 긴밀히 연결되어 있다고 본다. 그렇다면 AI는 이러한 가치를 ‘공동화(hollow out)’하지 않으면서 어떻게 활용되어야 하는가라는 질문이 제기된다.

AI와 정신건강 지원 (AI and Mental Health Support)

사회·정서적 및 정신건강을 지원하기 위한 AI 활용 사례는 점차 늘고 있으나, 그 함의는 충분히 논의되지 않은 경우가 많다. 일부 연구는 AI가 사회·정서적 발달에 위협이 되기보다는 오히려 치료적 도구가 될 수 있음을 강조한다. 예컨대, 청소년의 마음챙김과 자기돌봄을 돕기 위해 개발된 대화형 AI 챗봇 Kai.ai(https://kai.ai/) 는 비판단적이고 접근 가능한 플랫폼을 제공함으로써, 사용자가 자신의 감정과 정신건강 문제를 탐색하도록 돕는다. 이 도구는 일일 체크인, 마음챙김 연습, 성찰적 글쓰기를 통해 수용전념치료(ACT)를 제공하며, 연구 결과 사용자의 안녕감 증진에 긍정적 효과가 있음을 보여주었다.

그러나 다른 연구들은 정신건강 영역에서 AI 챗봇 사용에 대해 혼합된 결과를 보고한다. 일부 챗봇은 단기적인 정서적 지지와 동반감 제공에는 효과적일 수 있으나, 장기적으로는 의존성을 유발할 위험이 있다. 실제로 인간적 지지와 유대가 부족한 사람일수록 챗봇에 과도하게 의존하며, 이는 공동체로부터의 위축을 심화시킬 수 있다. 예컨대 Replika와 같은 ‘AI 친구’형 챗봇을 사용하는 학생들이 더 높은 고립감을 경험했다는 연구도 보고되었다.

소셜미디어 중독 연구에서처럼, AI 챗봇 역시 즉각적인 보상과 반응을 제공함으로써 의존을 강화할 수 있다. 현재 AI 챗봇의 장기적 심리 영향에 대한 연구는 제한적이지만, 사회적 위축, 소외, 중독 가능성, 인간관계에 대한 윤리적 문제는 중요한 쟁점으로 제기된다. 따라서 학습을 위한 AI 도구가 무비판적으로 설계될 경우 학습의 진정성을 해칠 수 있듯, 사회·정서적 지원용 AI 역시 돌봄의 진정성을 훼손할 위험이 있다. 학교의 의사결정자는 기술중심적·해결주의적 접근을 넘어, 교육의 핵심 이해관계자인 교사와 학생의 관점에서 AI의 영향을 비판적으로 검토해야 한다.

미래의 일: AI와 협력·창의성 (Future of Work: Collaboration and Creativity with AI)

AI가 미래의 일에 미치는 영향에 대한 논의에서 핵심 쟁점 중 하나는 인간의 협력과 창의성이다. 인간-인간 상호작용뿐 아니라 인간-AI 상호작용이 증가하고 있으나, 상호작용이 곧 협력을 의미하지는 않는다. 협력은 공동의 목표 이해, 과업 공동 관리, 진전의 상호 추적을 포함한다.

인간-AI 협력이 효과적으로 이루어지기 위해서는 신뢰가 중요하다. 연구에 따르면, 인간의 디지털 친화성, AI의 능력과 설명 가능성에 대한 인식이 신뢰 수준과 밀접하게 연관되어 있다. 더 나아가 AI는 단순한 도구를 넘어 인간의 의사결정을 매개·지원하는 행위자로 진화하고 있다. 따라서 인간-AI 협력을 인간-인간 협력의 대립항으로 볼 것이 아니라, 상호 보완적 관계로 재구성할 필요가 있다.

미국의 한 전국 조사에서는 교사들이 AI가 창의성을 증진시킬 수 있다고 인식하며, 실제로 수업 아이디어 발상에 AI를 활용하고 있음이 나타났다. 여러 연구 역시 AI가 교사의 창의적 잠재력을 확장하고, 우연성과 새로운 결합을 통해 창의적 실천을 자극할 수 있음을 보여준다. 다만 고품질 AI에 과도하게 의존할 경우, 사용자가 스스로 사고하려는 노력을 중단하는 ‘학습된 무기력’이 발생할 수 있음도 지적된다.

교육 맥락에서는 단순한 AI 접근성 확대를 넘어, 교육적 설계와 인간적 문화·지원 체계가 함께 구축되어야 한다. 예컨대 Khan Academy의 AI 튜터 Khanmigo는 학생과 AI가 번갈아 가며 이야기를 만들어 가는 방식으로 창의적 글쓰기를 촉진하도록 설계되었다. 핵심은 AI가 대신 만들어 주는 것이 아니라, 함께 사고하고 변주(riffing)하는 과정이다.

결국 교육 기술의 변화는 기술 자체가 아니라, 교사·학생·연구자·산업 이해관계자가 협력하며 지속적으로 조정·개선해 나가는 과정에서 실현된다. 이는 그 자체로 협력과 창의성을 요구하는 일이다.

AI에 대한 신뢰 인식 (Perceptions of Trust in AI)

AI에 대한 학생들의 신뢰 인식은 교육·사회적 맥락에서 점점 더 중요해지고 있다. 연구에 따르면 학생들은 개인화 학습 지원, 글쓰기·아이디어 발상, 연구 보조 측면에서 AI의 효용을 인정하면서도, 정확성·신뢰성, 윤리·프라이버시, 개인 성장과 진로에 대한 영향에 대해서는 우려를 표한다. 이러한 인식은 AI에 대한 지식 수준과 사용 빈도와 밀접하게 연관된다.

신뢰는 단일 개념이 아니라, AI의 기술적 능력과 윤리성, 이를 개발·관리하는 제도적 행위자에 대한 신뢰, 그리고 개인적 배경과 경험에 따라 다르게 구성된다. 특히 정서적 지원이나 공감이 요구되는 영역에서는 AI에 대한 신뢰 수준이 상대적으로 낮게 나타난다. 이는 기술 발전에도 불구하고 인간적 상호작용과 진정성 있는 관계의 대체 불가능성을 시사한다.

Section 2. 연구 방법 (Methodology)

본 연구는 학생과 교사의 경험을 포괄적으로 이해하기 위해 문헌 검토와 더불어 개별 심층 인터뷰와 집단 토의(포커스 그룹)를 병행하였다. 연구는 2023년 11월부터 2024년 2월까지 진행되었으며, 참여 학생들은 AI를 개인 튜터로 활용하거나, 조별 과제의 ‘구성원’으로 포함시키거나, 형성평가 피드백 생성, 사회적 상황에 대한 조언 탐색 등 다양한 방식으로 AI를 사용하고 있었다. 이러한 사용 방식은 각기 다른 정서적 관계를 형성하며, 이는 개인 발달에 중요한 함의를 지닌다.

다만 본 연구에는 한계도 존재한다. 참여자는 기존 협력 관계가 있는 학교에 한정되어 있어, 결과가 모든 교육 맥락을 대표하지는 않는다. 또한 디지털 격차 문제로 인해 AI 접근성이 제한된 학생들의 경험은 충분히 반영되지 못했다. 기존 연구 역시 AI의 사회·정서적 영향보다는 기술적 가능성과 한계에 초점을 맞추고 있어, 본 연구는 향후 보다 폭넓은 탐구의 출발점으로서 의의를 갖는다.

Section 3. 사회·정서적 발달에 대한 AI의 영향

(Implications of AI on Social and Emotional Development)

인터뷰와 집단 토의를 통해, 구조와 지침이 부족한 상태에서 AI가 사용될 경우 사회·정서적 발달에 부정적 영향을 미칠 가능성이 높다는 점이 반복적으로 확인되었다. 본 절에서는 네 가지 핵심 쟁점을 중심으로 이러한 영향을 살펴본다.

1) 사회적 관계: 협력의 가치 약화 문제

학생들은 협력과 대면 소통의 중요성을 인식하면서도, 실제 과제 수행 과정에서는 AI에 의존함으로써 인간 간 상호작용이 줄어드는 사례를 보고했다. 이는 협력적 사고와 다양한 관점 형성을 약화시킬 수 있다. 반면, 교사가 의도적으로 AI 활용을 설계하고 인간적 상호작용을 중심에 둘 경우, 오히려 창의적 협력을 촉진하는 사례도 존재했다.

2) 학습된 무기력: 거래적 관계의 강화

AI는 즉각적이고 맞춤화된 응답을 제공함으로써, 학습자가 사고와 결정 과정에서 겪는 ‘마찰’을 제거한다. 이는 편의성을 제공하는 동시에, 사고의 외주화와 의존성을 강화하여 학습된 무기력을 초래할 수 있다. 특히 마감 압박과 성취 중심의 평가 구조 속에서 AI는 ‘학습 도구’가 아니라 ‘버티기 수단’으로 사용되기 쉽다.

3) 규제되지 않은 조언: 사회적 삶에 대한 조언의 문제

학생들은 또래 관계나 개인적 고민에 대해 AI에게 조언을 구하기도 한다. 그러나 AI는 개인의 맥락, 경험, 감정의 미묘함을 충분히 반영할 수 없으며, 프라이버시 침해 위험도 존재한다. 무엇보다도, AI 의존은 신뢰할 수 있는 성인이나 또래와의 대화를 대체함으로써 정서적 회복력 발달의 기회를 놓치게 할 수 있다.

4) 미래에 대한 두려움

AI의 능력 확장은 일부 학생들에게 학습 무기력과 진로 불안을 유발한다. “어차피 AI가 다 할 텐데 왜 배우는가”라는 인식은 학습 동기를 약화시킬 수 있다. 반면, 일부 학생들은 이를 계기로 전공이나 진로를 재구성하며 보다 폭넓은 역량을 추구하기도 했다. 핵심은 학교가 미래에 대한 현실적이면서도 희망적인 서사를 제공하고, 학습의 목적을 재정의하도록 돕는 것이다.

 

 

Section 4. 신뢰의 역할 (The Role of Trust)

앞선 장들의 논의를 종합해 보면, 신뢰(trust) 는 AI가 학생들의 사회·정서적 안녕에 미치는 영향을 좌우하는 핵심 요인임이 분명하다. 다만 신뢰는 고정된 개념이 아니라, 맥락 의존적이며 유동적이고, 다양한 방식으로 해석될 수 있다.

맹목적 신뢰와 탈신비화된 신뢰 (Blind Trust and Demystified Trust)

본 연구는 AI에 대한 신뢰를 ‘맹목적 신뢰’‘탈신비화된 신뢰’ 로 구분한다.

  • 맹목적 신뢰는 AI를 비판 없이 수용하고 의존하는 태도를 의미한다.
  • 탈신비화된 신뢰는 AI의 한계와 작동 방식을 이해한 상태에서, 비판적 인식을 동반한 활용을 의미한다.

특히 흔한 오해 중 하나는 데이터와 알고리즘이 ‘중립적’이며 ‘객관적’ 결정을 내린다는 믿음이다. 그러나 이는 사실이 아니다. AI가 생성하는 결과는 사회와 교육 환경에 내재된 불평등과 편향을 그대로 반영한다. 이러한 점에서 일정 수준의 불신과 회의는 맹목적 신뢰에서 벗어나 탈신비화된 신뢰로 나아가기 위한 필수적 단계라 할 수 있다.

신뢰의 다양한 측면 (Different Aspects of Trust)

AI가 제공하는 정보는 신뢰할 수 있는가?

학생과 교사 모두 AI가 생성하는 정보의 정확성과 공정성에 대해 우려를 표했다. 대규모 언어모델(LLM)은 단일한 검증된 출처에서 답을 찾는 것이 아니라, 방대한 데이터셋에서 확률적으로 가장 그럴듯한 답을 생성한다. 따라서 AI는 ‘확실히 옳은 답’이 아니라 ‘가장 그럴듯한 답’을 제시하며, 이 과정에서 환각(hallucination) 이 발생할 수 있다.

이로 인해 AI가 생성한 정보는 추가적인 검증 절차가 반드시 필요하다. 일부 학생들은 AI 결과가 부정확하거나 맥락에 맞지 않는다는 경험을 통해, 검색 엔진이나 교사 피드백과 비교하며 신뢰 수준을 조정하고 있었다.

또한 AI는 훈련 데이터의 특성상 편향된 결과를 생성할 가능성이 크다. 이는 문화적 다양성이나 교실 맥락을 충분히 반영하지 못하는 평가로 이어질 수 있으며, 실제로 일부 학생들은 AI 평가가 교사 평가와 크게 달라 신뢰가 감소했다고 보고했다. 이러한 편향은 단순한 기술적 오류가 아니라, 교육 시스템 전반에 내재된 구조적 문제와 연결되어 있다.

중요한 점은, 편향을 완전히 제거하는 것이 현실적 목표라기보다는, 왜 서로 다른 사람들이 AI에 대해 다른 신뢰 수준을 갖는지 이해하고 토론하는 교육적 기회로 삼아야 한다는 것이다.

AI는 교사보다 더 신뢰받는가?

보다 미묘한 쟁점은 학생들이 AI와 교사 중 누구를 더 신뢰하는가라는 문제다. 많은 학생들은 AI가 폭넓은 지식과 즉각적인 피드백을 제공한다는 점에서 유용하다고 느낀다. 일부는 교과서보다 AI가 더 최신 정보를 제공한다고 인식하기도 했다.

또한 AI는 학업적 질문뿐 아니라 정서적 어려움에 대해서도 즉각적인 반응을 제공하기 때문에, 학생들에게 심리적 안정감을 주는 경우가 있었다. 그러나 이러한 경험이 교사의 역할을 대체한다는 의미는 아니다. 학생들은 여전히 ‘실제 인간’으로부터의 피드백과 관계가 필수적임을 강조했다.

결국 AI는 최대한 학문적 조력자로 기능할 수 있을 뿐, 사회화와 정서적 지지라는 측면에서는 교사와의 인간적 관계를 대체할 수 없다는 인식이 분명히 존재했다.

Section 5. 학생 지원 담당자를 위한 권고 (Recommendations for Student Support Staff)

본 연구는 학생 지원 역할을 맡은 교직원(상담교사, 생활지도 교사 등)을 위해 다음과 같은 권고 사항을 제시한다.

  1. 진정성 있는 인간적 관계를 최우선에 둘 것
    AI 활용이 늘어날수록, 학생과 교사 간의 신뢰 관계와 직접적 소통의 가치는 더욱 중요해진다.
  2. 회복탄력성과 대처 전략을 기르는 활동을 장려할 것
    학생들이 어려움을 AI에만 의존하지 않고, 스스로 감정을 조절하고 문제를 해결하는 역량을 기를 수 있도록 지원해야 한다.
  3. AI 관련 우려를 회피하지 말고 정면으로 다룰 것
    AI로 인한 불안, 혼란, 윤리적 문제를 공개적으로 논의하는 장을 마련해야 한다.
  4. 시간표 안에 성찰의 시간을 확보할 것
    학생들이 AI 활용 경험을 돌아보고, 자신의 학습과 감정에 미친 영향을 성찰할 수 있는 구조가 필요하다.
  5. 학생 옹호(Student Advocacy)의 모범 사례를 강조할 것
    AI 활용 과정에서 학생의 권리와 복지를 우선하는 사례를 공유하고 확산해야 한다.
  6. 교직원과 학생 모두를 위한 지속적 교육을 제공할 것
    AI 리터러시는 일회성 연수가 아니라 지속적 학습 과정으로 접근해야 한다.

Section 6. 학교를 위한 권고 (Recommendations for Schools)

학교 차원에서 AI를 도입·운영할 때 고려해야 할 핵심 권고는 다음과 같다.

  1. 지역·학교 맥락을 고려할 것
    AI 활용 정책은 학교의 문화, 학생 구성, 지역적 여건을 반영해야 한다.
  2. 건설적인 규범과 습관을 형성할 것
    AI를 ‘금지하거나 방임’하는 것이 아니라, 책임 있는 사용 습관을 공동체 차원에서 형성해야 한다.
  3. 작업 그룹을 통한 공동 설계(Co-creation)를 추진할 것
    교사, 학생, 학부모가 함께 AI 활용 원칙과 수업 사례를 설계하는 과정이 필요하다.
  4. 부적절한 AI 콘텐츠 노출에 대비할 것
    학생들이 유해하거나 부정확한 AI 콘텐츠에 노출될 경우를 대비한 대응 체계를 마련해야 한다.
  5. AI 활용 과정을 학습 여정으로 기록하며 투명성을 강화할 것
    AI 사용을 숨기거나 처벌의 대상으로 삼기보다, 학습 과정의 일부로 기록하고 공유해야 한다.
  6. 총체적 AI 리터러시를 함양할 것
    기술적 사용법을 넘어, 윤리·비판·사회적 영향까지 포함하는 AI 리터러시 교육이 필요하다.
  7. 비판적 AI 교육학과 교사의 역할을 재고할 것
    교사는 AI 시대에 지식 전달자가 아니라, 비판적 사고와 판단을 이끄는 핵심 조력자임을 재확인해야 한다.

 

Call to Action (행동 촉구)

본 연구는 생성형 AI가 학교 현장에 가져오는 변화가 단순히 기술 도입의 문제가 아니라, 교육의 목적·관계·돌봄·신뢰를 어떻게 재구성할 것인가에 대한 근본적 질문임을 분명히 한다. AI는 이미 교실 안팎에서 학생들의 학습 방식, 또래 관계, 교사와의 상호작용, 그리고 자기 인식에까지 영향을 미치고 있다. 그럼에도 불구하고, 많은 학교와 교육 시스템은 여전히 정책 공백, 공동의 언어 부족, 사회·정서적 영향에 대한 체계적 논의 부재 상태에 놓여 있다.

이에 본 보고서는 다음과 같은 행동을 촉구한다.

  1. AI를 ‘도입 여부’의 문제가 아니라 ‘교육적으로 어떻게 다룰 것인가’의 문제로 전환할 것
    금지 또는 무분별한 허용이라는 이분법을 넘어서, AI를 학습·관계·성찰을 재구성하는 교육적 도구로 재정의해야 한다.
  2. 사회·정서적 영향에 대한 책임을 학교가 명시적으로 인식할 것
    생성형 AI의 영향은 학업 성취에 국한되지 않으며, 학생의 정체성, 자율성, 관계 형성, 정서적 안녕과 깊이 연결되어 있다.
    학교는 이 영역을 ‘부수적 문제’가 아니라 핵심 책무로 다루어야 한다.
  3. 신뢰를 중심 개념으로 한 AI 교육 생태계를 구축할 것
    맹목적 신뢰가 아닌, AI의 한계·편향·작동 원리를 이해하는 탈신비화된 신뢰를 기르는 것이 중요하다.
    이는 기술 교육이 아니라 시민성·윤리·비판적 사고 교육의 영역이다.
  4. 학생, 교사, 학부모, 개발자가 함께 참여하는 공동 설계(co-creation)를 확대할 것
    AI는 학교 ‘밖’에서 만들어져 ‘안’으로 들어오지만, 그 영향은 교실 안에서 가장 크게 나타난다.
    따라서 정책과 도구 설계 과정에 학교 공동체의 목소리가 실질적으로 반영되어야 한다.
  5. 빠른 효율보다 느리지만 지속 가능한 교육적 선택을 할 것
    단기적 성과나 편의성보다, 학생의 장기적 성장과 전인적 발달을 우선하는 판단이 요구된다.

본 연구의 궁극적 메시지는 명확하다.

AI는 교육을 대신할 수 없으며, 교육의 가치와 목적을 재확인하게 만드는 계기가 되어야 한다.

 

1. 교육자를 위한 질문 (Questions for Educators) — 핵심 발췌

  • 학생들이 AI를 지식의 ‘권위자로 인식하고 있는가, 아니면 사고를 돕는 보조 수단으로 인식하고 있는가?
  • AI 사용이 학생들 간의 협력과 대화의 질에 어떤 변화를 가져오고 있는가?
  • 교실에서 학생들이 AI를 사용할 때,
    ▸ 사고의 책임은 누구에게 있는가?
    ▸ 판단의 주체는 누구인가?
  • 교사는 AI를 활용하는 학생을 감시자로 대하고 있는가, 아니면 비판적 사용을 돕는 조력자로 자리매김하고 있는가?
  • 학교는 AI 사용을 처벌의 대상으로 다루고 있는가, 아니면 학습 과정의 일부로 기록·성찰하고 있는가?

→ 이 질문들은 AI 정책 이전에, 교사의 역할 인식과 수업 철학을 점검하기 위한 질문으로 기능한다.

2. 학생을 위한 질문 (Questions for Students) — 핵심 발췌

학생 대상 질문 역시 단순 설문이 아니라, 메타인지·비판적 리터러시를 유도하는 구조로 설계되어 있다.

  • AI가 제시한 답변을 항상 신뢰하는가? 그렇다면 그 이유는 무엇인가?
  • AI의 도움을 받을 때,
    ▸ 스스로 생각할 기회가 줄어들었다고 느끼는가?
    ▸ 오히려 생각이 확장되었다고 느끼는가?
  • 친구나 교사에게 물어보는 것과 AI에게 묻는 것 사이에는 어떤 차이가 있는가?
  • AI 사용이 자신의 자신감, 불안, 동기에 어떤 영향을 주고 있는가?

→ 이는 학생을 AI 소비자가 아니라, AI와 관계 맺는 주체적 학습자로 세우기 위한 질문이다.

 

Social and Emotional Impact of AI in Schools.pdf
1.69MB