Edutech에서 ‘AI’는 실제로 무엇을 의미하는가?
EBS (한국교육방송공사)가 운영하는 Danchoo+는 ‘AI 진단’, ‘AI 추천’, *‘AI 분석’*이라는 용어를 강조하지만, 실제 현장에서 이 ‘AI’는 대개 설명 가능한 규칙(rule)과 간단한 통계 분석, 그리고 최소 수준의 벡터화 모델(Item2Vec)로 구현된다. 이는 비용 효율성과 정책기관의 투명성 요구를 만족시키는 안전한 선택지이기도 하다. Danchoo+는 이 점에서 Edutech 분야의 ‘AI’가 실제로 어떤 수준인지 보여주는 대표적 사례다.
| 광고 단계 | 기술 구조 |
| STEP 01 진단 | Pre-test와 Rule-based 영역별 정확도 진단 |
| STEP 02 추천 | Rule-based 취약영역 필터링 + Item2Vec 유사문항 추천 |
| STEP 03 분석 | Word2Vec/Item2Vec 수준 shallow embedding |
| STEP 04 결과 | 누적 학습 데이터 기반 통계 대시보드 |
STEP 01: Rule-based 학습 진단
광고 문구: ‘효율적인 자기주도학습 실현을 위한 AI 학습 진단’
기술 구조: 학생은 첫 로그인 시 간단한 진단평가(pre-test)를 풀게 된다. 예컨대 수학에서 20문항 중 5문항을 방정식, 5문항을 함수, 5문항을 도형, 5문항을 확률 영역으로 구성한다. 학생의 응답 벡터 는 아래와 같이 나타날 수 있다.
예시: (1은 정답, 0은 오답)
정답률이 50% 미만인 영역은 자동으로 ‘취약영역’으로 분류된다. 예를 들어 방정식 영역에서 5문제 중 2문제만 맞히면, 방정식은 ‘추가 학습 필요’로 표시된다. 이 모든 과정은 Rule-based 계산으로 처리된다.
STEP 02: Rule + Item2Vec 추천
광고 문구: ‘문제 풀이 이력을 분석하여 최적화된 학습 경로 제공’
기술 구조: 취약영역이 진단되면, 시스템은 두 가지 방식으로 문항을 추천한다.
- Rule: 방정식 영역 정답률이 낮으면 같은 난이도의 방정식 추가 문항을 추천.
- Item2Vec: 학생이 과거에 자주 틀린 문항 Q07과 Q33이 함께 오답으로 기록되었다면, Q07과 Q33이 같은 의미 벡터 공간에서 가깝다고 판단하고 Q07과 유사한 Q45, Q50을 추천.
간단한 시나리오: 학생 A의 최근 오답 시퀀스가 [Q07, Q33, Q45] 인 경우, Item2Vec 모델은 Q07과 Q33이 같이 틀린 것을 학습한다. 이후 Q07을 다시 틀렸다면, Q33과 Q45 같은 문항이 자동으로 연계 추천된다.
STEP 03: ‘딥러닝’의 실제 의미 – shallow embedding
광고 문구: ‘딥러닝 알고리즘 기반 맞춤형 학습 콘텐츠 추천’
기술 구조: 많은 사용자가 ‘딥러닝(deep learning)’이라는 표현을 보고 Transformer나 CNN 같은 대규모 모델을 기대하지만, Danchoo+는 실제로는 Word2Vec과 유사한 Skip-gram 구조로 Item2Vec을 학습한다.
구체 예시:
- 동일한 세션에서
[Q07, Q33]이 여러 번 함께 등장 → 두 문항의 벡터가 비슷해짐. - 오답 시퀀스가 늘수록 벡터 관계가 정교해짐.
- 추천 단계에서는 유사도를 기반으로
most_similar문항을 간단히 호출한다.
STEP 04: Rule + Count 기반 대시보드
광고 문구: ‘누적된 학습 결과를 종합하여 학습 대시보드 제공’
기술 구조: 학생의 누적 응답 기록 는 영역별 정답률, 오답 패턴, 소요 시간 등을 정량적으로 요약한다.
예를 들어:
- 방정식 영역 정답률: 55%
- 함수 영역 정답률: 85%
- 평균 소요 시간: 40초/문제
이 정보는 간단한 Count 집계와 Rule-based 분석으로 시각화되며, AI라기보다는 통계 대시보드에 가깝다.
Edutech ‘AI’의 실체 – Rule과 Item2Vec의 현실적 조합
Danchoo+는 Edutech에서 ‘AI’라는 용어가 실제로는 Rule-based 진단과 간단한 shallow embedding(Item2Vec)으로 동작함을 잘 보여준다. 이는 설명 가능성(conscience)이 높고 정책기관(EBS, 교육부)과의 연계에 적합하지만, 사용자 맞춤화(personalization) 관점에서는 한계가 존재한다. 향후 Edutech는 Transformer 기반 LLM과 강화학습(reinforcement learning)으로 이 구조를 확장할 수 있을 것이다.
부록: Item2Vec
- 핵심 원리: Word2Vec(단어 벡터화) 기법을 문항 추천으로 확장.
- 적용: 학생들이 한 세션에서 함께 틀린 문항들을 ‘문맥’으로 보고, Skip-gram으로 벡터화.
- 결과: 문항 간 ‘의미적 거리’를 계산하여 유사 문항을 추천.
from gensim.models import Word2Vec
# 예: 학생별 오답 시퀀스
wrong_sequences = [
['Q01', 'Q05', 'Q07'],
['Q02', 'Q05'],
['Q01', 'Q07', 'Q08'],
['Q02', 'Q09'],
['Q05', 'Q07', 'Q10']
]
# Item2Vec 학습 (Skip-gram)
model = Word2Vec(
sentences=wrong_sequences,
vector_size=32,
window=2,
min_count=1,
sg=1
)
# Q05와 유사한 문항 추천
print(model.wv.most_similar('Q05'))
위 예시는 학생이 Q05를 자주 틀렸다면, Q05와 같은 맥락에서 오답이 발생한 Q07, Q10 등을 연관 추천하는 기본 구조를 보여준다.