青青青久草,四虎永久在线精品,二区免费视频,一级毛片在线直接观看,黄网在线免费观看,美女露全身永久免费网站,色婷婷六月桃花综合影院

人工智能時代 對未來學習方式的五大預測

編者按:人工智能的出現(xiàn)或許會深刻改變我們的學習方式。一對一、個性化等教育方式或許會加速實現(xiàn),而新一代面向教師和學生的人工智能工具也將會崛起。更高級的工具會是一把更鋒利的雙刃劍,關(guān)鍵在于如何合理利用它。本文來自編譯,希望對您有所啟發(fā)。

去年,當 OpenAI 發(fā)布其聊天機器人 ChatGPT 時,支持者們迅速宣布了各種與寫作相關(guān)的領(lǐng)域的死亡,比如劇本寫作、計算機編程和音樂創(chuàng)作。有一個特別的領(lǐng)域幾乎可以立即感受到 ChatGPT 的力量,那就是教育。有了 ChatGPT 的技術(shù),學生現(xiàn)在可以很容易地在論文和大學論文上作弊,而在另一方面,教師也可以將他們的課程外包給人工智能,而且沒有人會知道的。

但是 ChatGPT 并不是教育的終結(jié)。就在學生們開始讓聊天機器人幫著寫作業(yè)時,新的程序也出現(xiàn)了,用來檢測人工智能寫的作業(yè)。

事實是,如果利用得當,人工智能有可能極大地提高學生的批判性思維能力,并擴展他們的軟技能。懷疑論者擔心,如果孩子們可以依靠人工智能來回答問題,他們就會停止學習基本技能,不去練習,忘記一般的事實。心理學家愛德華·德西(Edward Deci)和理查德·瑞安(Richard Ryan)在他們的自我決定理論中假設(shè),人類本質(zhì)上是由自主性、相關(guān)性和能力驅(qū)動的,也就是說,不管有任何捷徑,他們都會繼續(xù)學習。維基百科的創(chuàng)建就是一個很好的例子。我們并沒有因為現(xiàn)在可以在網(wǎng)上快速查到日期和公式,而停止學習歷史或科學。相反,我們只是獲得了額外的資源,來幫助我們核查事實和促進學習。

鑒于教育是人工智能的首批消費者用例之一,而像 ChatGPT 這樣的程序是數(shù)百萬兒童、教師和管理員接觸人工智能的方式,所以關(guān)注人工智能的應用及其對我們生活的影響是至關(guān)重要的。下面,我們將探討一下對未來的人工智能、學習、知識和教育的五個預測。

01.一對一模式成為主流

獲得一對一的服務,如家教、輔導、導師制,甚至醫(yī)療,曾經(jīng)是只有富裕階層才能享受到的。人工智能將有助于使這些服務普及化,讓更多人受益。事實上,布魯姆的“2西格瑪問題”(接受一對一教學的學生,比傳統(tǒng)課堂的孩子表現(xiàn)好兩個標準差)現(xiàn)在已經(jīng)有了解決方案。人工智能可以成為任何人的實時導師,人工智能可以充當任何人的現(xiàn)場導師,由人類補充人工智能,提供深入的知識和情感及行為支持。例如,學術(shù)工具 Numerade 最近發(fā)布了一款人工智能導師 Ace,它可以生成個性化的學習計劃,根據(jù)學生的技能水平安排合適的內(nèi)容。

人工智能還可以把“時間有限的專家和學術(shù)名家”帶到所有學習者的身邊,無論這個人資源如何。這一發(fā)展對于導師制和學徒制很重要的行業(yè)來說,會實現(xiàn)令人難以置信的民主化。想象一下,如果一個初創(chuàng)公司的創(chuàng)始人可以和人工智能版的馬克·安德森(Marc Andreessen)或保羅·格雷厄姆(Paul Graham)隨叫隨到地聊天會是什么景象。這正是初創(chuàng)公司 Delphi 正在嘗試做的事情。與此同時,Historical Figures 工具還可以讓用戶與亞伯拉罕·林肯(Abraham Lincoln)、柏拉圖(Plato)和本杰明·富蘭克林(Benjamin Franklin)等重要歷史人物對話,而 Character AI 可以讓任何人創(chuàng)建真實或想象中的“角色”來進行對話。

在心理健康等可能容易被指責的領(lǐng)域,人工智能提供的增強版解決方案(如 Replika 或 Link),除了成本較低和隨時可以預約,可能還比人類治療師更平易近人,鼓勵那些害怕陌生人評價的患者。人工智能還可以進行個性化,并適應你的風格偏好(例如,你是喜歡認知行為療法,還是更傳統(tǒng)的行為療法),解決治療行業(yè)中存在的匹配難的問題。人工智能增強療法也是一種邊際成本較低的軟件。這意味著可以創(chuàng)造出更多物美價廉的終端產(chǎn)品,這將有助于進入大眾市場。我們并不是在設(shè)想一個人類沒有作用的世界。目前,人工智能還不完美,它還沒有達到100%人類水平的思考和專業(yè)知識。此外,有些時候,有些人可能只是希望有一個真實的人類來與他們接觸。

02.“個性化學習”從夢想走向現(xiàn)實

有了人工智能,從學習方式和需求(例如,視覺、文本和音頻)到內(nèi)容類型(例如,引入孩子或大人最喜歡的角色或最喜歡的愛好/流派)到課程設(shè)置,都將成為可能。人工智能還可以更精確地匹配一個人的技能水平:軟件可以跟蹤你的知識,測試你的進步,并根據(jù)你的知識和差距,為你重復或重新定制內(nèi)容。這應該會給學習者帶來更高的參與度。例如,Cameo 推出了一款以比利皮(Blippi)、蜘蛛俠(Spider-Man)和其他頂級IP為特色的兒童產(chǎn)品。一位媽媽甚至請“蜘蛛俠”鼓勵她的孩子上廁所,而且這似乎奏效了。人工智能還將更好地解決不同類型的學習者的問題,比如比一般人學得快、在特定概念或?qū)W科上落后、在課堂上羞于舉手,或者有其他特殊的學習需求。

03.新一代面向教師和學生的人工智能工具將會崛起

從歷史上看,學生和教育工作者是生產(chǎn)力軟件的天然潮流引領(lǐng)者。事實上,學生和教師是 Canva 和 Qualtrics(后來被 SAP 收購)等初創(chuàng)公司的第一批用戶。在 Canva 的案例中,西澳大學(University of Western Australia,Canva 的創(chuàng)始人就讀于該校)的學生利用這個設(shè)計平臺制作他們的學校年鑒,而在 Qualtrics 的案例中,西北大學市場營銷學教授安吉拉·李(Angela Lee)使用該服務為其MBA和博士生輕松地收集大規(guī)模數(shù)據(jù)。就像學生和老師最早開始使用早期的生產(chǎn)力工具一樣,我們可以很容易地看到他們成為新一代軟件的早期采用者,這些軟件利用了基于聊天的對話界面,因為這樣會讓人工智能變得更加“像人類”。

我們期望教師接受新一代人工智能工具的另一個原因是,他們工作過度,而且資金不足,這使得他們沒有那么多時間專注于自己更愿意專注的地方:學生。今天,老師們會花費大量的時間來評分、制定教案和備課。人工智能已經(jīng)從數(shù)以百萬計的早期教育材料中學習,可以通過創(chuàng)建計劃和教學大綱的草稿等方式,減輕教師的工作量。然后,教師需要做的就是為各自的教學完善和定制人工智能輸出的內(nèi)容。騰出時間后,教師現(xiàn)在可以專注于以前的“額外”活動,比如給予每個學生個性化的關(guān)注。

至于學生,他們喜歡尋找創(chuàng)造性的方法來節(jié)省時間,在學習中獲得優(yōu)勢。Chegg 是上一代人的寵兒。現(xiàn)在,新的人工智能驅(qū)動的工具,如 Photomath 和 Numerade 已經(jīng)出現(xiàn),可以幫助學生解決和理解復雜的數(shù)學和科學問題。尤其是在大學,一款受歡迎的產(chǎn)品可以通過多種渠道而迅速獲得口碑。比如,通過學生組織、社交俱樂部和社交活動積攢好評,有的甚至通過大學教授在數(shù)百名學生面前的教學展示來彰顯產(chǎn)品品質(zhì)。

04.評估學習的方式將需要調(diào)整,并將開發(fā)新的評估工具

自從 ChatGPT 發(fā)布以來,公共教育工作者已經(jīng)開始討論,他們應該如何、以及是否應該“監(jiān)督”學生在學校作業(yè)和大學錄取等方面,利用人工智能輔助工作的證據(jù)。世界各地的學校,包括紐約、西雅圖和其他大型公立學區(qū),目前已經(jīng)禁止 ChatGPT 和其他相關(guān)的人工智能寫作網(wǎng)站。就連繼續(xù)采用大學入學論文的做法也受到了質(zhì)疑。

與此同時,許多教育工作者認為,ChatGPT 是一種應該與學習和教學相結(jié)合的技術(shù),利用人工智能將是未來一項至關(guān)重要的職業(yè)技能。為了實現(xiàn)這一點,我們需要在課堂教學和評估課堂成績的方式上做出一系列調(diào)整,就像我們在維基百科、計算器、互聯(lián)網(wǎng)、個人筆記本電腦等出現(xiàn)并最終成為關(guān)鍵的課堂技術(shù)時所做的那樣。我們很高興看到下一代工具的出現(xiàn),這些工具可以幫助學校更好地評估學生的學習成果和頒發(fā)證書,而利用人工智能的工具可以讓教師和學生的生活更好、更輕松。

需要考慮的一個復雜問題是,如果使用這種技術(shù)才能給某些學生在學習方面帶來巨大優(yōu)勢。例如,在禁止使用人工智能工具的學校里,家里無法上網(wǎng)的學生可能無法接觸到人工智能技術(shù),而有資源的學生可以在家里學習并使用它。這也將擴大公立學校和私立學校之間的教育差距,因為私立學校比公立學校更容易采用和吸收新技術(shù),畢竟私立學校的學生與教師比例更低,預算更高。

05.隨著“真相”被扭曲,事實核查將變得至關(guān)重要

另一個備受關(guān)注的領(lǐng)域是人工智能時代的“真相”。算法是根據(jù)現(xiàn)有數(shù)據(jù)進行訓練的,但所有這些數(shù)據(jù)目前仍受制于人類的判斷和人類行為。這意味著各種各樣的社會偏見(種族的、基于性別的等等)會也被納入算法,而且這些偏見將繼續(xù)被放大。例如,Gmail 的補句人工智能假設(shè)投資者必須是男性。谷歌的 Smart Compose 團隊已經(jīng)多次嘗試糾正這個問題,但迄今為止都沒有成功。

在這種充滿偏見的環(huán)境中,人工智能會提供與事實不符的信息(或虛假事實/新聞),所以事實核查將變得至關(guān)重要。如今,人工智能生成的回答尤其危險,因為它們可以輕松地寫出連貫的散文,其潤色程度足可以欺騙我們,讓我們相信它是準確和真實的。例如,《華爾街日報》報道的華盛頓大學的一項研究顯示,72%的人在閱讀人工智能撰寫的新聞文章時認為它是可信的,盡管其事實是不正確的。

在這樣一個時代,我們?nèi)绾尾邉澑哔|(zhì)量和事實準確的內(nèi)容?人們對用戶生成內(nèi)容和其他非官方渠道內(nèi)容的信任將會降低。反過來說,受眾也可能盲目信任他們已經(jīng)關(guān)注和尊重的人物、品牌和“專家”。

最后,我們可能會創(chuàng)造出一代有能力、但不了解基本細節(jié)的人。這可能會導致在邊緣案例和危機中出現(xiàn)問題,因為在這些情況中對基本細節(jié)的詳細了解變得非常重要。以網(wǎng)絡開發(fā)的抽象化為例:我們已經(jīng)越來越遠離低級硬件、基礎(chǔ)設(shè)施和后端,進入了一個有 GitHub Copilot 的世界,在這個世界中,前端工程師幾乎不需要接觸數(shù)據(jù)庫或后端。甚至還有針對非技術(shù)用戶的無代碼解決方案。這種抽象化是很好的,因為它可以實現(xiàn)更多的創(chuàng)造,并為技能水平較低的用戶提供支持。但是如果后端出現(xiàn)了一個嚴重的錯誤,而沒有人知道如何修復它時,會發(fā)生什么呢?