近日,歐盟發(fā)布《教育領(lǐng)域可解釋人工智能:促進(jìn)人類監(jiān)督與責(zé)任共擔(dān)》報(bào)告,特別強(qiáng)調(diào)了可解釋人工智能(Explainable AI,簡稱XAI)在教育領(lǐng)域應(yīng)用時(shí)教師所需具備的能力和承擔(dān)的責(zé)任。
可解釋人工智能,是人工智能的重要子領(lǐng)域,指能夠讓人類理解其決策過程、邏輯和依據(jù)的人工智能技術(shù),要求人工智能應(yīng)用具備高度的透明度和可理解性,如智能學(xué)習(xí)輔助系統(tǒng)需為學(xué)習(xí)者解釋“為何推薦某類習(xí)題”、“成績評估依據(jù)是什么”等,幫助其理解學(xué)習(xí)路徑并增強(qiáng)自主學(xué)習(xí)能力。
報(bào)告提出,XAI的落地依賴教師能力的升級?;诓煌逃A段特點(diǎn),報(bào)告構(gòu)建了分層能力框架:基礎(chǔ)教育階段,教師需掌握基礎(chǔ)XAI概念,能借助可視化工具解讀AI輸出,例如通過AI作業(yè)分析系統(tǒng)識別學(xué)生共性知識漏洞,并向?qū)W生解釋練習(xí)推薦邏輯。職業(yè)教育與高等教育教師則需具備批判性評估能力,包括理解AI模型的局限性、識別訓(xùn)練數(shù)據(jù)中的潛在偏見等。例如,在醫(yī)學(xué)教育中,教師需驗(yàn)證AI診斷輔助工具是否對特定病例存在誤判傾向。
報(bào)告建議,教師培訓(xùn)應(yīng)融入XAI實(shí)踐案例,如通過AI模擬決策活動(dòng),讓教師體驗(yàn)如何在AI推薦與教學(xué)經(jīng)驗(yàn)之間作出決策,培養(yǎng)“人機(jī)協(xié)同”教學(xué)思維。教師需具備評估AI工具的能力,理解系統(tǒng)決策邏輯是否符合教學(xué)目標(biāo),識別潛在偏見如對非母語學(xué)生的評分偏差等,并能根據(jù)課堂實(shí)際調(diào)整建議。同時(shí),可解釋人工智能應(yīng)用需嵌入“人工干預(yù)通道”,允許教師手動(dòng)修改學(xué)習(xí)路徑或評分標(biāo)準(zhǔn)。
?。ó呅娜纾?/p>
《中國教育報(bào)》2025年09月04日 第09版
工信部備案號:京ICP備05071141號
互聯(lián)網(wǎng)新聞信息服務(wù)許可證 10120170024
中國教育報(bào)刊社主辦 中國教育新聞網(wǎng)版權(quán)所有,未經(jīng)書面授權(quán)禁止下載使用
Copyright@2000-2022 www.ccwzc.com All Rights Reserved.