# 智能複習系統 - 演算法規格書 (ASD) **目標讀者**: 演算法工程師、數據科學家 **版本**: 1.0 **日期**: 2025-09-25 --- ## 🧮 **算法概述** ### **核心問題** 現有 `2^成功次數` 算法增長過快,需要設計更科學的間隔重複算法。 ### **設計目標** - 間隔增長平緩,避免過早達到最大間隔 - 結合用戶表現動態調整 - 處理逾期復習的記憶衰減 --- ## 📐 **數學模型** ### **主算法公式** ``` 新間隔 = (當前間隔 × 增長係數 × 表現係數) × 逾期懲罰係數 下次復習日期 = 復習行為當日 + 新間隔 ``` ### **⏰ 時間基準定義 (關鍵)** ```python # 關鍵時間定義 scheduled_date = flashcard.next_review_date # 預定復習日期 actual_review_date = datetime.now().date() # 復習行為當日 overdue_days = (actual_review_date - scheduled_date).days # 下次復習計算基準:以復習行為當日為準 next_review_date = actual_review_date + timedelta(days=new_interval) ``` **設計原則**: - ✅ **以復習行為當日為基準** - 用戶在哪天復習,就從那天開始計算下次復習 - ✅ **避免累積逾期** - 不會因為一次逾期導致後續復習都逾期 - ✅ **用戶友好** - 符合用戶直覺,任何時候復習都是"重新開始" **具體範例**: ``` 詞卡應該 2025-09-20 復習,用戶 2025-09-25 才復習 (逾期5天): - 逾期天數 = 5天 (中度逾期) - 原間隔 = 14天,答對,信心等級4 - 新間隔 = 14 × 1.4 × 1.1 × 0.75 = 16天 - 下次復習 = 2025-09-25 + 16天 = 2025-10-11 ✅ - 而非 = 2025-09-20 + 16天 = 2025-10-06 ❌ ``` ### **1. 增長係數函數** ```python def get_growth_factor(current_interval): if current_interval <= 7: return 1.8 # 短期:快速增長 elif current_interval <= 30: return 1.4 # 中期:中等增長 elif current_interval <= 90: return 1.2 # 長期:緩慢增長 else: return 1.1 # 超長期:極緩增長 ``` **設計理念**: 分段函數避免指數爆炸,早期快速建立記憶,後期維持長期記憶。 ### **2. 表現係數函數** ```python def get_performance_factor(is_correct, confidence_level=None, question_type="flipcard"): """ 根據不同題型計算表現係數 """ if question_type == "flipcard": # 翻卡題:信心等級映射 (1-5 → 0.5-1.4) confidence_mapping = {1: 0.5, 2: 0.7, 3: 0.9, 4: 1.1, 5: 1.4} return confidence_mapping.get(confidence_level, 0.9) elif question_type in ["multiple_choice", "fill_blank", "sentence_reconstruction"]: # 客觀題:正確性導向 return 1.1 if is_correct else 0.6 elif question_type in ["vocabulary_listening", "sentence_listening"]: # 聽力題:正確性 + 輕微加權 (聽力更困難) return 1.2 if is_correct else 0.5 elif question_type == "sentence_speaking": # 口說題:主觀評估 (通常標記為成功) return 1.0 # 口說練習重在參與,不重罰 else: # 預設情況 return 0.9 ``` **設計理念**: 翻卡題依據主觀信心,客觀題依據正確性,反映不同題型的認知特點。 ### **3. 逾期懲罰函數** ```python def calculate_overdue_penalty(overdue_days): if overdue_days <= 0: return 1.0 # 準時,無懲罰 elif overdue_days <= 3: return 0.9 # 輕度逾期 elif overdue_days <= 7: return 0.75 # 中度逾期 elif overdue_days <= 30: return 0.5 # 重度逾期 else: return 0.3 # 極度逾期 ``` **設計理念**: 階梯式懲罰,鼓勵按時復習,但不過度懲罰偶爾延遲。 ### **4. 記憶衰減模型** ```python def calculate_memory_decay(original_mastery, overdue_days): # 基於 Ebbinghaus 遺忘曲線的指數衰減 decay_rate = 0.05 # 每天5%衰減率 max_decay_days = 30 # 最多考慮30天衰減 effective_days = min(overdue_days, max_decay_days) decay_factor = (1 - decay_rate) ** effective_days return max(0, int(original_mastery * decay_factor)) ``` **設計理念**: 符合認知科學的遺忘曲線,逾期越久記憶衰減越多。 ### **6. 智能複習方式自動選擇算法** #### **6.1 四情境自動適配算法** ```python def auto_select_review_type(user_level, word_level, review_history=None): """ 系統自動選擇最適合的複習方式,用戶無需手動選擇 設計理念: - 完全自動化:用戶零選擇負擔 - 四情境精準匹配:A1/簡單/適中/困難 - 智能避重:自動避免連續重複題型 Args: user_level: 學習者程度 (1-100) word_level: 詞彙難度 (1-100) review_history: 最近復習歷史 (可選) Returns: str: 系統自動選定的複習題型 """ difficulty = word_level - user_level if user_level <= 20: # A1學習者 - 統一基礎題型,建立信心 available_types = ['flipcard', 'multiple_choice', 'vocabulary_listening'] return smart_select_from_pool(available_types, review_history, user_level) elif difficulty < -10: # 簡單詞彙 (學習者程度 > 詞彙程度) # 重點練習應用和拼寫 available_types = ['sentence_reconstruction', 'fill_blank'] return smart_select_from_pool(available_types, review_history, user_level) elif difficulty >= -10 and difficulty <= 10: # 適中詞彙 (學習者程度 ≈ 詞彙程度) # 全方位練習,包括口說 available_types = ['fill_blank', 'sentence_reconstruction', 'sentence_speaking'] return smart_select_from_pool(available_types, review_history, user_level) else: # 困難詞彙 (學習者程度 < 詞彙程度) # 回到基礎,重建記憶 available_types = ['flipcard', 'multiple_choice'] return smart_select_from_pool(available_types, review_history, user_level) def smart_select_from_pool(available_types, review_history, user_level): """ 從可用題型池中智能選擇一個題型 """ if not review_history: review_history = [] # 避免連續重複邏輯 recent_modes = [r.question_type for r in review_history[-3:]] if len(recent_modes) >= 2 and recent_modes[-1] == recent_modes[-2]: # 如果最近2次都是同一題型,避免選擇 filtered_types = [t for t in available_types if t != recent_modes[-1]] if filtered_types: available_types = filtered_types # A1學習者權重選擇 if user_level <= 20: weights = { 'flipcard': 0.4, 'multiple_choice': 0.4, 'vocabulary_listening': 0.2 } return weighted_select(available_types, weights) # 其他情況隨機選擇 return random.choice(available_types) def weighted_select(types, weights): """權重選擇函數""" total = sum(weights.get(t, 0) for t in types) r = random.random() * total for t in types: r -= weights.get(t, 0) if r <= 0: return t return types[0] ``` **設計原則**: - **零選擇負擔**: 用戶完全無需選擇,系統自動決策 - **A1自動保護**: 初學者自動限制基礎3種題型,避免挫折 - **四情境精準**: 每種學習情境都有最佳題型自動匹配 - **智能避重**: 系統自動避免連續重複,確保學習多樣性 - **透明決策**: 用戶可了解系統選擇邏輯,但無需參與決策 #### **6.2 算法決策流程圖** ``` 用戶開始復習 ↓ 讀取用戶程度 & 詞彙難度 ↓ 計算難度差異 (wordLevel - userLevel) ↓ 判斷學習情境 ├── A1學習者 (user的cefr=A1) → 基礎3題型池 ├── 簡單詞彙 (<-10) → 應用2題型池 ├── 適中詞彙 (-10~10) → 全方位3題型池 └── 困難詞彙 (>10) → 基礎2題型池 ↓ 檢查復習歷史 ↓ 智能避重處理 (避免連續重複) ↓ A1權重選擇 / 其他隨機選擇 ↓ 返回最終題型 ↓ 直接展示對應題目 (用戶無感知選擇過程) ``` **演算法特點**: - **決定性**: 系統完全自動決策,無用戶參與 - **情境敏感**: 根據四種學習情境精準匹配 - **智能優化**: 自動避重、權重分配、表現適應 - **透明運作**: 決策過程對用戶透明但無需干預 ### **5. 熟悉程度計算 (雙重概念)** #### **5.1 基礎熟悉度計算 (存入資料庫)** ```python def calculate_base_mastery_level(times_correct, total_reviews, current_interval): """ 計算基礎熟悉度,在復習完成時更新並存入資料庫 這是熟悉度的「基準值」,不考慮時間衰減 """ success_rate = times_correct / total_reviews if total_reviews > 0 else 0 base_score = min(times_correct * 8, 60) # 60% 權重 interval_bonus = min(current_interval / 365 * 25, 25) # 25% 權重 accuracy_bonus = success_rate * 15 # 15% 權重 return min(100, round(base_score + interval_bonus + accuracy_bonus)) ``` #### **5.2 當前熟悉度計算 (實時計算)** ```python def calculate_current_mastery_level(base_mastery, last_review_date): """ 計算當前熟悉度,考慮記憶衰減的實時值 用於前端顯示,不存入資料庫 """ days_since_review = (datetime.now().date() - last_review_date).days # 如果是當日復習,返回基礎熟悉度 if days_since_review <= 0: return base_mastery # 套用記憶衰減 return calculate_memory_decay(base_mastery, days_since_review) ``` **設計理念**: - **基礎熟悉度**: 學習成果的基準值,反映用戶的學習進度 - **當前熟悉度**: 考慮時間因素的實時值,反映當下的記憶強度 ### **6. 熟悉度計算時機** #### **6.1 基礎熟悉度更新時機** - ✅ **復習完成時**: 計算並更新到資料庫 - ❌ **查詢時**: 不重新計算,直接讀取資料庫值 - ❌ **定期批次**: 不需要排程任務更新 #### **6.2 當前熟悉度計算時機** - ✅ **API 查詢時**: 每次請求都實時計算 - ✅ **前端顯示時**: 根據 API 返回的基礎值和參數計算 - ✅ **列表頁面**: 批次計算多個詞卡的當前熟悉度 #### **6.3 計算流程圖** ``` 用戶復習 → 更新基礎熟悉度 → 存入資料庫 ↓ 用戶查詢 → 讀取基礎熟悉度 → 計算當前熟悉度 → 返回前端 ↓ 前端展示 → 顯示當前熟悉度 (會隨時間動態變化) ``` --- ## 📊 **算法特性分析** ### **收斂性分析** - **間隔上限**: 365天,確保不會無限增長 - **收斂速度**: 約15-20次復習達到長期記憶階段 - **穩定性**: 表現波動不會導致劇烈間隔變化 - **題型收斂**: A1學習者在基礎題型間穩定切換,進階學習者逐步使用高階題型 ### **自動選擇算法分析** - **覆蓋性**: 保證每個學習情境都有最佳題型自動匹配 - **決定性**: 系統完全自主決策,用戶零認知負擔 - **適應性**: 根據A1/簡單/適中/困難四情境自動調整 - **保護性**: A1學習者自動限制基礎題型,絕不暴露複雜選項 - **智能性**: 自動避重、權重分配、歷史感知 ### **參數敏感性** | 參數 | 影響程度 | 調優建議 | |------|---------|----------| | 增長係數 | 高 | 謹慎調整,影響整體學習節奏 | | 逾期懲罰 | 中 | 可根據用戶行為數據調優 | | 衰減率 | 中 | 建議基於記憶實驗數據設定 | | 權重分配 | 低 | 相對穩定,微調即可 | | A1題型權重 | 中 | 影響初學者體驗,需謹慎調整 | | 連續重複限制 | 低 | 2-3次為佳,過低影響深入練習 | ### **邊界條件處理** ```python # 關鍵邊界條件 def validate_inputs(interval, times_correct, total_reviews): assert 0 <= interval <= 365, "間隔必須在 0-365 範圍內" assert times_correct >= 0, "成功次數不能為負" assert total_reviews >= times_correct, "總次數不能少於成功次數" assert total_reviews >= 0, "總次數不能為負" ``` --- ## 🔬 **算法驗證** ### **理論驗證** - ✅ **單調性**: 連續答對時間隔遞增 - ✅ **有界性**: 間隔不會超過365天 - ✅ **連續性**: 參數小幅變化不會導致間隔劇變 - ✅ **收斂性**: 學習軌跡收斂到穩定狀態 ### **數值穩定性** - 浮點運算精度: 使用 `Math.Round()` 處理 - 溢出保護: 所有中間結果都有上下界 - 零除防護: `total_reviews = 0` 時返回預設值 ### **性能複雜度** - **基礎熟悉度**: O(1) - 常數時間計算 - **當前熟悉度**: O(1) - 常數時間計算 - **自動題型選擇**: O(1) - 常數時間決策 (四情境直接映射) - **智能避重處理**: O(h) - h為歷史記錄查看數量 (通常≤3) - **空間複雜度**: O(1) - 無額外存儲需求 - **預期性能**: - 單次計算: < 1ms - 自動題型選擇: < 2ms (四情境映射+避重) - 列表頁批次計算: < 10ms (100個詞卡) - A1自動保護檢查: < 1ms --- ## 🎛️ **參數調優指南** ### **A/B 測試建議** ```json { "interval_algorithm": { "conservative": { "growth_factors": [1.6, 1.3, 1.1, 1.05], "description": "保守增長,更多復習機會" }, "aggressive": { "growth_factors": [2.0, 1.5, 1.3, 1.15], "description": "積極增長,減少復習負擔" }, "current": { "growth_factors": [1.8, 1.4, 1.2, 1.1], "description": "當前推薦參數" } }, "review_type_strategy": { "diversity_focused": { "consecutive_limit": 1, "a1_weights": {"flipcard": 0.33, "multiple_choice": 0.33, "vocabulary_listening": 0.34}, "description": "最大多樣性,每次都換題型" }, "stability_focused": { "consecutive_limit": 3, "a1_weights": {"flipcard": 0.5, "multiple_choice": 0.3, "vocabulary_listening": 0.2}, "description": "允許深入練習,偏重翻卡題" }, "current": { "consecutive_limit": 2, "a1_weights": {"flipcard": 0.4, "multiple_choice": 0.4, "vocabulary_listening": 0.2}, "description": "平衡多樣性和穩定性" } }, "a1_protection": { "strict": { "level_threshold": 25, "allowed_types": ["flipcard", "multiple_choice"], "description": "更嚴格保護,只允許2種題型" }, "moderate": { "level_threshold": 20, "allowed_types": ["flipcard", "multiple_choice", "vocabulary_listening"], "description": "當前標準" }, "relaxed": { "level_threshold": 15, "allowed_types": ["flipcard", "multiple_choice", "vocabulary_listening", "fill_blank"], "description": "較寬鬆,允許填空題" } } } ``` ### **監控指標** - **學習軌跡分布**: 檢查間隔分布是否合理 - **用戶滿意度**: 復習頻率是否符合預期 - **記憶效果**: 長期記憶率是否提升 - **自動選擇效果**: 各題型自動分配是否達到學習目標 - **A1用戶無障礙體驗**: 初學者完成率和信心提升 - **四情境適配準確率**: 系統選擇題型與學習效果的關聯度 - **智能避重效果**: 連續重複題型的控制效果 - **零選擇體驗滿意度**: 用戶對無需選擇的便利性評價 --- ## 🔮 **未來優化方向** ### **個人化參數** ```python # 未來可考慮的個人化係數 personal_factor = calculate_personal_learning_ability(user_id) new_interval *= personal_factor # 個人化題型偏好 def get_personal_type_preference(user_id): user_stats = get_user_performance_by_type(user_id) # 根據各題型的歷史表現調整權重 return calculate_preference_weights(user_stats) ``` ### **遺忘曲線整合** ```python # 更精確的記憶強度模型 memory_strength = math.exp(-time_since_review / forgetting_constant) review_urgency = 1 - memory_strength # 題型特定的遺忘曲線 def get_type_specific_decay(question_type): # 不同題型可能有不同的記憶保持率 decay_rates = { 'flipcard': 0.05, # 概念記憶 'fill_blank': 0.07, # 拼寫記憶衰減較快 'sentence_speaking': 0.03 # 口說記憶保持較久 } return decay_rates.get(question_type, 0.05) ``` ### **多維度考量** - **詞彙難度係數**: 基於語料庫統計的客觀難度 - **學習時間分布**: 用戶的學習時間偏好和效率 - **情境相關性**: 詞彙在不同情境下的重要性 - **認知負荷**: 不同題型的認知負荷評估 - **學習風格適配**: 視覺型、聽覺型、動覺型學習者的偏好 - **進度同步**: 多設備間的學習進度同步策略 ### **高級算法方向** - **深度學習預測**: 使用神經網路預測最佳復習時間 - **強化學習優化**: 基於用戶反饋動態優化推薦策略 - **群體智慧**: 利用相似用戶的學習軌跡改進推薦 - **多目標優化**: 同時優化學習效率、用戶滿意度、長期留存 --- **算法設計者**: Claude AI **審核狀態**: 待算法團隊 Review