獨家專訪︱圖靈獎獲得者杰克·唐加拉:ChatGPT並非“超算大腦”

現任美國田納西大學電氣工程和計算機科學系教授的杰克·唐加拉(Jack J. Dongarra),既是美國國家工程院院士,又是英國皇家學會外籍院士,比起“雙院士”身份,他還有另外一個更加惹人注目的頭銜——2021年圖靈獎獲得者。
有著“計算機界諾貝爾獎”之稱的圖靈獎,是全球計算機領域最負盛名的獎項。該獎項對獲獎者的條件要求極高,評獎程序甚為嚴格,通常每年隻獎勵一名計算機科學家,隻有極少數年度有兩名及以上在同一方向做出杰出貢獻的科學家可以同時獲獎。
唐加拉教授是超級計算機基准測試、數值分析、線性代數解算器和高性能計算領域的先驅,因其對線性代數運算的高效數值算法、並行計算編程機制和性能評估工具的卓越貢獻,引領了高性能計算,從而一舉斬獲圖靈獎殊榮。他的主要成就是創建了採用線性代數作為中間語言、可供各類應用程序使用的開源軟件庫和標准,在數值算法和庫方面更是做出了開創性的探索,使得高性能計算軟件能夠跟上四十多年來的指數級硬件更新。
圖靈盛名的優秀履歷絕非偶然,這位72歲的計算機科學家對於高性能計算和人工智能有著不同尋常的洞見。近日,唐加拉教授確認將線上出席5月26日在貴陽舉辦的2023中國國際大數據產業博覽會(簡稱“數博會”)開幕式,並圍繞“高性能計算和大數據”話題作主旨演講。作為計算機領域的頂級專家,唐加拉教授將以深度參與者和建設者的第一視角分享對於算力發展的獨到見解,同時,他本人也於日前接受了數據觀的獨家專訪,就算法賦能數字技術、芯片行業未來、數據中心、高性能計算挑戰、人工智能與ChatGPT等時下國際熱點和焦點展開了精彩分享,在2023數博會召開前為大家帶來一場精妙絕倫的思想盛宴和智慧大餐。
算法演進賦能信息技術長足發展
從大數據到數字技術,新一代信息技術深刻影響了人類的生產方式和生活方式。在這個過程中,算法也經歷了“經典算法——機器學習算法——深度學習算法——強化學習算法——進化算法”的迭代演變。唐加拉教授表示,算法的演進是近幾十年來讓世界信息技術得以長足進步的關鍵,隨著數據集呈幾何倍爆炸式增長,算法在數據分析和數據處理環節已經成為不可或缺的重要技術手段。
算法是計算機處理信息的本質。五個算法代表了不同時期人類與技術共棲的數字文明生態,唐加拉教授結合時代背景詳細闡釋了五個算法的特點。
根據他的介紹,最早的算法是經典算法,被用於數學計算裡的簡單分步程序,該算法旨在解決具體數量問題。機器學習算法隨著大數據應運而生,由於傳統算法不足以處理大量信息,機器學習算法作為一種訓練計算機識別模式並根據數據進行預測的方式問世,該算法包括決策樹、神經網絡和支持向量機等。深度學習算法代表了機器學習的巨大突破,它使計算機能夠從非結構化數據中學習,例如圖像和自然語言,該算法使用多層人工神經元從數據中提取特征並作出准確預測。強化學習算法也是一種機器學習,它訓練計算機在試驗和錯誤的基礎上做出決定,該算法被用於機器人和游戲等領域,計算機通過與環境互動進行學習。進化算法使用自然選擇原則來尋找復雜問題的解決方案,該算法被廣泛應用於優化問題,如調度、路由和資源分配。
“總體而言,算法的演進與信息技術、大數據的發展密切相關。隨著數據集日益龐大和復雜,算法也將日漸成熟強大,使得計算機能夠做出更加准確的分析和預測,越來越多的任務正在實現自動化。”唐加拉教授說。
量子技術或引領芯片行業跨越式飛躍
目前,深度學習對底層芯片計算能力的需求一直在飛速增長,甚至大大超過了摩爾定律的速度。對於芯片行業未來的發展趨勢,唐加拉教授直言,隨著人工智能、大數據分析、物聯網等領域對高性能計算的需求不斷提升,芯片行業有望在未來幾年內持續增長和創新。隨后,他進行了大膽的預測。
深度學習和其他形式的人工智能需求持續激增,可以預見的是,人工智能芯片的研發將變得緊迫而重要,這些芯片被設計用來加速神經網絡和其他機器學習算法的處理,使人工智能可以快速高效地應用到各類社會場景。
與此同時,諸如極紫外光刻和多重光散射等先進制造工藝正在高速發展,這使未來的芯片可以具有更小的特征尺寸和更高密度,兼具強大功能和高節能性為一體。為特定應用定制芯片的能力也變得越來越重要,因為它能夠創建高度優化的系統,提供最大的計算性能和效率。
值得注意的是,盡管量子計算仍然處於研究階段,但這不妨礙它成為一個充滿無限潛力的領域,基於量子技術生產的量子芯片甚至能夠替代經典計算機完成之前無法完成的種種計算,徹底顛覆行業,它將在未來的計算領域發揮絕對優勢。
唐加拉教授表示,芯片的核心競爭力包括高性能計算、能源效率、可靠性和安全性。他強調:“優秀的芯片必須能夠快速准確地處理大量數據,同時消耗最少電力,並提供高水平的可靠性和安全性。”
高性能計算發展的六大挑戰
近年來,依托數據、算法和算力快速發展的人工智能正在撼動世界。以美國開放人工智能研究中心(OpenAI)研發的ChatGPT為首,擁有對話、繪畫能力的生成式AI陸續登場,其能力之強令人震驚。顯然,高性能計算為人工智能的崛起提供了強大引擎,隨著人工智能的廣泛應用,高性能計算也將面臨一些技術挑戰。唐加拉教授認為制約高性能計算發展的瓶頸表現在以下六個方面。
可擴展性方面,隨著人工智能應用日漸差異化,需要更多的數據和更強大的計算資源來支撐,高性能計算系統也需要擴大規模以滿足這些需求,這就需要設計、構建能夠有效處理海量數據和處理能力的系統,同時保持高性能和可靠性。
能源效率方面,高性能計算系統會消耗大量能源,這對於社會經濟和環境來說都是一個難題。人工智能的應用越廣泛,需要的算力就越大,能源效率已經成為高性能計算的重要挑戰。
異質性方面,人工智能應用需要各種各樣的計算資源,包括GPU、TPU和FPGA,以及專門的軟件框架和算法。管理這些不同資源的同時,還要將它們整合到一個連貫的高性能計算系統中並非易事。
彈性方面,高性能計算系統必須具有高度彈性和可靠性,由於人工智能應用需要連續不斷地處理數據,任一停機或故障都會帶來重大損失。
數據管理方面,人工智能應用處理數據的同時也產生數據,這些數據須得到有效安全的管理。高性能計算系統在設計的時候就要考慮是否能夠及時、安全地處理大型數據集的存儲和檢索。
人才方面,目前,具有高性能計算和人工智能專業知識的熟練專業人員大量短缺,這對依賴於技術的組織來說也是一個重大挑戰。為了解決這個問題,建議增加對教育和培訓項目的投資,以培養一支能夠有效管理和操作高性能計算系統的人才隊伍。
ChatGPT並非“超算大腦”
今年初以來,“ChatGPT現象”火遍全球,對這個呼聲頗高的生成式人工智能,唐加拉教授表達了不同的看法——“雖然ChatGPT被譽為自然語言處理領域的一項杰出成就,但並不意味著它就是‘超算大腦’。”他指出,超級計算系統高度專業化,旨在進行復雜的計算和各種模擬,而ChatGPT是基於文本輸入進行的內容輸出,產生類似人類的反應。
ChatGPT代表了人工智能領域的重大進步,或將徹底改變許多行業的就業模式,包括客服、教育和診療,部分人對此表示擔憂。唐加拉教授認為不必過度焦慮,根據他的分析,像ChatGPT這樣的人工智能技術可以即使能實現某些任務和流程的自動化,然而它們在情感和判斷上不可能完全取代大多數人的工作。相反,這些技術更有可能增強和提高人類的工作能力、效率,就業者可以騰出時間從事更有創造性和增值性的工作。
與任何新興技術一樣,ChatGPT會給就業市場帶來贏家和輸家。一方面部分工作可以實現自動化,另一方面,新的工種也會誕生,用以支持這些新技術的開發、部署和維護。所以,無論政府、企業還是個人,都要為這些即將發生的變化做好充足的准備。(文︱數乾坤)
分享讓更多人看到
- 評論
- 關注