針對高中學程,教案的設計核心必須從「觀察」與「拆解」進化到「建模(Modeling)」與「倫理決策(Ethical Trade-offs)」。高中生已具備較成熟的數理邏輯與公民意識,此階段的 AI 協作應強調「黑盒子的數學本質」與「社會影響的價值判斷」。
以下是一份針對高中職設計的跨學科教案範本:
🌌 高中跨學科 AI 協作教案:【算法與正義:大數據驅動的社會建模】
- 教學對象: 高中 10-12 年級
- 建議時數: 6 堂課(分為「理論建構」、「AI 實作」、「批判與辯論」三階段)
- 跨學科領域: 數學(機率與統計、線性代數初步)、公民(社會正義、法律制度)、資訊(演算法原理、AI 偏見)、探討與實作。
第一階段:底層邏輯 ——「機率不等於真理」
目標:理解 AI 的第一性原理——從數據特徵尋找相關性,而非因果性。
- 數學拆解: 老師演示「簡單線性回歸」或「貝氏定理」。讓學生理解,AI 的預測本質上是基於歷史數據的機率分佈。
- 第一性思考練習:
- 案例:假設某 AI 預測「穿紅衣服的人更容易犯罪」,是因為歷史數據中紅衣罪犯比例高。
- 討論:這是「因果」還是「相關」?如果我們直接套用此演算法,會對社會造成什麼本質上的破壞?
第二階段:AI 建模實作 ——「設計一個入學審核 AI」
目標:親手建立判斷標準,觀察「數據偏見」如何產生。
- 任務設定: 學生分組擔任大學招生官,設計一套「自動審核入學申請」的評分邏輯。
- AI 協作(使用 ChatGPT 或簡單的 AutoML 工具):
- 步驟 A:輸入 50 筆模擬學生資料(包含家長職業、居住地、競賽成績、志工時數)。
- 步驟 B:讓 AI 學習「過去十年的錄取偏好」,生成一個自動評分模型。
- 發現黑盒子: 學生測試模型,發現 AI 是否會自動排除「家境清寒但有潛力」的學生?為什麼?(引導學生發現 AI 傾向於複製歷史的不平等)。
第三階段:批判與重構 ——「第一性原理的價值取捨」
目標:在科技效率與人類價值之間,進行高維度的權衡。
- 方案重構: 學生必須修正 AI 的模型。這不是改程式碼,而是改「權重與底層假設」。
- 例如:是否該加入「逆境加分」因子?這符合公平的第一性原理嗎?
- 蘇格拉底式辯論:
- 辯題:「如果一個 AI 預測犯罪的準確率高達 99%,我們是否應該給予其法律判決權?」
- 要求:學生必須引用數學概率論與法學原理(如:無罪推定)進行攻防。
評量指標:高中生 AI 領導力規準
|
評分項目 |
頂尖表現 (Visionary) |
基礎表現 (Technician) |
|
技術理解 |
能解釋 AI 模型的訓練數據如何影響輸出結果。 |
僅會操作軟體,無法說明預測邏輯。 |
|
批判思惟 |
能從「法律」與「數學」雙重維度指出 AI 的偏見。 |
僅能模糊地感覺到「這樣不太公平」。 |
|
解決方案 |
提出的修正方案兼顧「效率」與「社會公平」,具備可行性。 |
提出的建議過於理想化,無視物理或經濟限制。 |
💡 給高中老師的教學建議
- 從「黑盒」到「白盒」: 鼓勵學生去追問 AI 「為什麼給出這個答案?」。如果 AI 答不出來(通常如此),那就是學生展現「人類直覺與倫理判斷」的時刻。
- 強化資料素養(Data Literacy): 高中生應學會辨識「數據垃圾進,垃圾出(GIGO)」的道理。
- 跨學科共時教學: 建議由數學老師講解統計誤差,公民老師討論正義論。這種跨學科的碰撞是訓練思辯的最強能量。
結語:
高中教育應將 AI 視為一面「鏡子」。透過觀察 AI 的局限,學生能更深刻地理解人類的智性價值——那就是在機率之外,我們擁有選擇正義與承擔責任的能力。
本文僅代表作者立場,不代表本平台立場








Facebook Comments 文章留言