亚洲成在人线a免费|国产高清国产精品国产|国产午夜精品男女一级爽|99热这里全都是精品国产|一区久久国产精品免费观看|免费精品久久不卡一区二区|国偷自产一区二区三区中文字|国产亚洲精品sese在线播放

您好,歡迎來到教育裝備網!登錄注冊新賬戶

http://39388b.com/zt/2022/ceeia/
全國教育辟謠平臺

教育人工智能倫理風險如何消解

http://39388b.com2021年04月08日 10:25教育裝備網

  人工智能正在成為國際競爭的新焦點,同時也為人類社會帶來了新的發(fā)展機遇。機器學習、自然語言處理、情感計算、虛擬現(xiàn)實等技術的迅猛發(fā)展,不僅為學生獲取更高質量的教育體驗提供了有力支撐,也有助于進一步擴展教師自由發(fā)展的空間。但與此同時,智能導師系統(tǒng)、智能數據挖掘等人工智能技術在教育應用中面臨眾多倫理問題,例如數據泄露、公共安全、惡意競爭等。

  人工智能(Artificial Intelligence,簡稱AI)是計算機科學的一部分,包括研究、開發(fā)用于模擬、延伸和擴展人的智能的理論、方法、技術及應用系統(tǒng)等方面。教育人工智能倫理則是用以規(guī)范教育人工智能開發(fā)及應用過程中關系、行為的道理及準則。

  教育人工智能雖具備強大的數據整合與分析能力,但同時也會引發(fā)一系列新的倫理風險,系統(tǒng)來看,其主要體現(xiàn)在以下四個方面。

  其一,信息安全。人工智能助力教育教學的同時,不僅為師生發(fā)展創(chuàng)造機遇,也產生了海量教育數據如個人身份信息、行為軌跡、學習偏好等。若此類數據并未得以有效保護或者被非法使用,則會引發(fā)一系列信息安全問題,例如個人隱私資料被惡意泄露及不正當使用、電子郵件的惡意推送、非法電子監(jiān)控、網絡詐騙、數據侵權等,師生的隱私權利在人工智能透視鏡下將變得十分脆弱。

  其二,目標沖突。教育人工智能的目標沖突風險主要由人工智能開發(fā)商、用戶的基本目標不一致所產生的。對私營部門來說,由于商業(yè)利益至上的理念根深蒂固,可能會依托人工智能技術工具過度追逐私利。而且,不少教育人工智能設計者與開發(fā)者缺乏致力于“教育公共服務”的責任意識,欠缺對教育成長的價值關懷。若人工智能開發(fā)商、學校管理團隊未在人工智能的教育應用方面達成目標共識,則師生自身利益難以得到長期的有效保障。

  其三,缺乏制度約束。當前,用于約束教育人工智能開發(fā)與應用的制度體系尚未健全,教育用戶的合法權益難以得到有效保障。而且,專業(yè)制度約束體系的缺位、失位及錯位成為導致教育人工智能不道德行為出現(xiàn)的重要因素。若缺乏有效的技術標準與“強制性”法律手段加以規(guī)約,教育人工智能的設計開發(fā)與實踐應用可能會逐漸偏離教育價值與人文立場。應對違反教育人工智能倫理規(guī)范的行為與舉措實施問責與制裁,以便合理規(guī)約人工智能開發(fā)人員、教育用戶等人的行為。

  其四,過度資源依賴。當前,機器學習和算法推薦雖然可實現(xiàn)教學資源的個性化推送,但這種看似公平合理的人工智能應用,隱含著不為人知的算法歧視與技術偏向,可能導致學生所獲取的教學資源高度同質化,學生逐漸形成資源依賴,不愿跳脫僵化思維,進而影響了學生視野的開闊及創(chuàng)新發(fā)展。而且,教師也可能為節(jié)省自身時間及工作成本,過度依賴人工智能推送的教學資源,喪失自身對于教育教學的獨特理解及思考。

  理清相關倫理風險的消解路徑,有利于促使教育能夠合乎道德地利用人工智能機遇,并實現(xiàn)公平和道德的教育決策。

  第一,注重智能時代師生信息素養(yǎng)培育。首先,需注重師生信息分辨力培育。學校應引導師生對于信息資源獲取及篩選、信息倫理風險等問題的理解與思考,增強師生信息分辨能力。其次,關注師生信息反饋力培育。學校應引導師生合理反饋人工智能的信息安全、倫理、舒適感問題,并構建暢通的信息反饋渠道,以便持續(xù)改善人工智能的教育應用成效。

  第二,完善教育人工智能算法審查及決議機制。首先,應注重構建人工智能算法的審查機制。人工智能算法的運行偏差有可能持續(xù)存在,甚至會被放大。應制定有關人工智能算法培訓和測試的基本規(guī)范與安全協(xié)議,對人工智能算法模型的前提假設進行教育本質層面的剖析,尤其應審查教育人工智能算法系統(tǒng)是否包含算法歧視與濫用問題,以便能最大限度保障用戶數據及信息的精確性、隱私安全以及倫理規(guī)范。其次,需明確人工智能教育應用方案的決議機制。政府、學校、企業(yè)等均需秉承集思廣益的決策原則,鼓勵不同意見的提出與開放討論,思考通過某種形式的投票與評價來決定教育人工智能應用的最優(yōu)決定,致力于實現(xiàn)教育公共利益訴求的合理滿足。

  第三,加強人工智能及數據的法規(guī)監(jiān)管。當前教育人工智能發(fā)展暴露出眾多技術及數據失范問題,因此,要完善智能技術及教育數據風險問責機制,實現(xiàn)智能技術及數據的規(guī)范監(jiān)管。首先,可嘗試制定及頒布具有法律約束力的教育人工智能法規(guī),規(guī)范技術開發(fā)及應用的倫理責任,非法開發(fā)、使用及銷售人工智能的行為將面臨法律后果及責任。其次,注重教育人工智能應用過程中的數據監(jiān)管,構建專業(yè)的數據隱私監(jiān)管組織或機構。隱私監(jiān)管組織或機構應在某項人工智能技術推廣應用之前,評估該技術的數據安全情況,避免非法分享和使用數據。

  第四,加強教育人工智能倫理風險排查與評估。實現(xiàn)有道德的教育人工智能,不可僅僅依靠技術改進,還應采用“系統(tǒng)化思想”審視與排查教育人工智能的倫理風險,這對于最大化保障教育公共利益是至關重要的。教育人工智能倫理風險的存在不僅涉及開發(fā)階段,也涉及生產和分銷階段。除了確保教育人工智能設計的安全性外,還應仔細評估智能算法倫理風險、教育數據倫理風險等的危害等級,以便及時制定教育人工智能倫理風險化解方案。

  第五,構建校本化教育人工智能倫理規(guī)范體系。校本化的教育人工智能倫理規(guī)范體系必須高度公正且具有可解釋性,明確規(guī)定人工智能在學校應用的基本要求、審查程序及倫理規(guī)范,并對技術開發(fā)商、學校管理人員等人在教育人工智能倫理監(jiān)管的職責、權利和義務予以合理劃分與限定。學校管理人員可基于學校層面教育人工智能倫理規(guī)范體系,為人工智能在學校教育中的應用設置許可權限。若某項人工智能技術在應用中產生了重大倫理風險,則應根據倫理風險的評估等級對人工智能的應用許可權限進行適當限制。

  (趙磊磊系江南大學教育學院副教授,代蕊華系華東師范大學教育學部教授、教育部中學校長培訓中心主任。本文系中國高等教育學會2020年專項重點課題“高校信息化安全風險防范與化解研究”[2020XXHD04]成果)

(來源:《中國教育報》 )
聲明: 本網部分文章系教育裝備網轉載自其它媒體,目的在于信息傳遞,并不代表本網贊同其觀點和對其真實性負責,如有新聞稿件和圖片作品的內容、版權以及其它問題的,請聯(lián)系我們。
第84屆中國教育裝備展示會
2025第十一屆亞洲教育裝備博覽會
第84屆中國教育裝備展示會-展會會刊