8.8 KiB
8.8 KiB
智能複習系統 - 演算法規格書 (ASD)
目標讀者: 演算法工程師、數據科學家 版本: 1.0 日期: 2025-09-25
🧮 算法概述
核心問題
現有 2^成功次數 算法增長過快,需要設計更科學的間隔重複算法。
設計目標
- 間隔增長平緩,避免過早達到最大間隔
- 結合用戶表現動態調整
- 處理逾期復習的記憶衰減
📐 數學模型
主算法公式
新間隔 = (當前間隔 × 增長係數 × 表現係數) × 逾期懲罰係數
下次復習日期 = 復習行為當日 + 新間隔
⏰ 時間基準定義 (關鍵)
# 關鍵時間定義
scheduled_date = flashcard.next_review_date # 預定復習日期
actual_review_date = datetime.now().date() # 復習行為當日
overdue_days = (actual_review_date - scheduled_date).days
# 下次復習計算基準:以復習行為當日為準
next_review_date = actual_review_date + timedelta(days=new_interval)
設計原則:
- ✅ 以復習行為當日為基準 - 用戶在哪天復習,就從那天開始計算下次復習
- ✅ 避免累積逾期 - 不會因為一次逾期導致後續復習都逾期
- ✅ 用戶友好 - 符合用戶直覺,任何時候復習都是"重新開始"
具體範例:
詞卡應該 2025-09-20 復習,用戶 2025-09-25 才復習 (逾期5天):
- 逾期天數 = 5天 (中度逾期)
- 原間隔 = 14天,答對,信心等級4
- 新間隔 = 14 × 1.4 × 1.1 × 0.75 = 16天
- 下次復習 = 2025-09-25 + 16天 = 2025-10-11 ✅
- 而非 = 2025-09-20 + 16天 = 2025-10-06 ❌
1. 增長係數函數
def get_growth_factor(current_interval):
if current_interval <= 7:
return 1.8 # 短期:快速增長
elif current_interval <= 30:
return 1.4 # 中期:中等增長
elif current_interval <= 90:
return 1.2 # 長期:緩慢增長
else:
return 1.1 # 超長期:極緩增長
設計理念: 分段函數避免指數爆炸,早期快速建立記憶,後期維持長期記憶。
2. 表現係數函數
def get_performance_factor(is_correct, confidence_level=None, question_type="flipcard"):
if question_type == "flipcard":
# 信心等級映射 (1-5 → 0.5-1.4)
confidence_mapping = {1: 0.5, 2: 0.7, 3: 0.9, 4: 1.1, 5: 1.4}
return confidence_mapping.get(confidence_level, 0.9)
else:
# 客觀題
return 1.1 if is_correct else 0.6
設計理念: 翻卡題依據主觀信心,客觀題依據正確性,反映不同題型的認知特點。
3. 逾期懲罰函數
def calculate_overdue_penalty(overdue_days):
if overdue_days <= 0:
return 1.0 # 準時,無懲罰
elif overdue_days <= 3:
return 0.9 # 輕度逾期
elif overdue_days <= 7:
return 0.75 # 中度逾期
elif overdue_days <= 30:
return 0.5 # 重度逾期
else:
return 0.3 # 極度逾期
設計理念: 階梯式懲罰,鼓勵按時復習,但不過度懲罰偶爾延遲。
4. 記憶衰減模型
def calculate_memory_decay(original_mastery, overdue_days):
# 基於 Ebbinghaus 遺忘曲線的指數衰減
decay_rate = 0.05 # 每天5%衰減率
max_decay_days = 30 # 最多考慮30天衰減
effective_days = min(overdue_days, max_decay_days)
decay_factor = (1 - decay_rate) ** effective_days
return max(0, int(original_mastery * decay_factor))
設計理念: 符合認知科學的遺忘曲線,逾期越久記憶衰減越多。
5. 熟悉程度計算 (雙重概念)
5.1 基礎熟悉度計算 (存入資料庫)
def calculate_base_mastery_level(times_correct, total_reviews, current_interval):
"""
計算基礎熟悉度,在復習完成時更新並存入資料庫
這是熟悉度的「基準值」,不考慮時間衰減
"""
success_rate = times_correct / total_reviews if total_reviews > 0 else 0
base_score = min(times_correct * 8, 60) # 60% 權重
interval_bonus = min(current_interval / 365 * 25, 25) # 25% 權重
accuracy_bonus = success_rate * 15 # 15% 權重
return min(100, round(base_score + interval_bonus + accuracy_bonus))
5.2 當前熟悉度計算 (實時計算)
def calculate_current_mastery_level(base_mastery, last_review_date):
"""
計算當前熟悉度,考慮記憶衰減的實時值
用於前端顯示,不存入資料庫
"""
days_since_review = (datetime.now().date() - last_review_date).days
# 如果是當日復習,返回基礎熟悉度
if days_since_review <= 0:
return base_mastery
# 套用記憶衰減
return calculate_memory_decay(base_mastery, days_since_review)
設計理念:
- 基礎熟悉度: 學習成果的基準值,反映用戶的學習進度
- 當前熟悉度: 考慮時間因素的實時值,反映當下的記憶強度
6. 熟悉度計算時機
6.1 基礎熟悉度更新時機
- ✅ 復習完成時: 計算並更新到資料庫
- ❌ 查詢時: 不重新計算,直接讀取資料庫值
- ❌ 定期批次: 不需要排程任務更新
6.2 當前熟悉度計算時機
- ✅ API 查詢時: 每次請求都實時計算
- ✅ 前端顯示時: 根據 API 返回的基礎值和參數計算
- ✅ 列表頁面: 批次計算多個詞卡的當前熟悉度
6.3 計算流程圖
用戶復習 → 更新基礎熟悉度 → 存入資料庫
↓
用戶查詢 → 讀取基礎熟悉度 → 計算當前熟悉度 → 返回前端
↓
前端展示 → 顯示當前熟悉度 (會隨時間動態變化)
📊 算法特性分析
收斂性分析
- 間隔上限: 365天,確保不會無限增長
- 收斂速度: 約15-20次復習達到長期記憶階段
- 穩定性: 表現波動不會導致劇烈間隔變化
參數敏感性
| 參數 | 影響程度 | 調優建議 |
|---|---|---|
| 增長係數 | 高 | 謹慎調整,影響整體學習節奏 |
| 逾期懲罰 | 中 | 可根據用戶行為數據調優 |
| 衰減率 | 中 | 建議基於記憶實驗數據設定 |
| 權重分配 | 低 | 相對穩定,微調即可 |
邊界條件處理
# 關鍵邊界條件
def validate_inputs(interval, times_correct, total_reviews):
assert 0 <= interval <= 365, "間隔必須在 0-365 範圍內"
assert times_correct >= 0, "成功次數不能為負"
assert total_reviews >= times_correct, "總次數不能少於成功次數"
assert total_reviews >= 0, "總次數不能為負"
🔬 算法驗證
理論驗證
- ✅ 單調性: 連續答對時間隔遞增
- ✅ 有界性: 間隔不會超過365天
- ✅ 連續性: 參數小幅變化不會導致間隔劇變
- ✅ 收斂性: 學習軌跡收斂到穩定狀態
數值穩定性
- 浮點運算精度: 使用
Math.Round()處理 - 溢出保護: 所有中間結果都有上下界
- 零除防護:
total_reviews = 0時返回預設值
性能複雜度
- 基礎熟悉度: O(1) - 常數時間計算
- 當前熟悉度: O(1) - 常數時間計算
- 空間複雜度: O(1) - 無額外存儲需求
- 預期性能:
- 單次計算: < 1ms
- 列表頁批次計算: < 10ms (100個詞卡)
🎛️ 參數調優指南
A/B 測試建議
{
"test_groups": {
"conservative": {
"growth_factors": [1.6, 1.3, 1.1, 1.05],
"description": "保守增長,更多復習機會"
},
"aggressive": {
"growth_factors": [2.0, 1.5, 1.3, 1.15],
"description": "積極增長,減少復習負擔"
},
"current": {
"growth_factors": [1.8, 1.4, 1.2, 1.1],
"description": "當前推薦參數"
}
}
}
監控指標
- 學習軌跡分布: 檢查間隔分布是否合理
- 用戶滿意度: 復習頻率是否符合預期
- 記憶效果: 長期記憶率是否提升
🔮 未來優化方向
個人化參數
# 未來可考慮的個人化係數
personal_factor = calculate_personal_learning_ability(user_id)
new_interval *= personal_factor
遺忘曲線整合
# 更精確的記憶強度模型
memory_strength = math.exp(-time_since_review / forgetting_constant)
review_urgency = 1 - memory_strength
多維度考量
- 詞彙難度係數
- 學習時間分布
- 情境相關性
算法設計者: Claude AI 審核狀態: 待算法團隊 Review