MoneyDJ新聞 2024-05-16 13:20:35 記者 賴宏昌 報導
Business Insider報導,繼OpenAI共同創辦人、校準團隊共同負責人暨首席科學家Ilya Sutskever週二(5月14日)晚間宣布離職後,OpenAI校準團隊的另一位共同負責人Jan Leike也在數小時後發布「我辭職了(I resigned)」的簡短貼文。
報導指出,Leike在去年9月被《時代雜誌》評選為人工智慧(AI)領域百大最具影響力人物之一,上述簡短貼文肯定會引發人們對他和Sutskever下一步行動的猜測。
Sutskever週二晚間推文表示,在阿特曼(Sam Altman)等人的領導下,OpenAI將能夠打造出安全可靠的通用人工智慧(AGI)。
Sutskever、Leike去年7月指出,超級智慧將是人類發明的最具影響力科技、可以協助人類解決世界上許多最重要的問題,但超級智慧的巨大力量可能是非常危險的、或將導致人類喪失權力,甚至導致人類滅絕。
venturebeat.com報導,Leike是在2021年1月宣布加入OpenAI,在此之前他是在谷歌DeepMind AI實驗室工作。
時代雜誌網站去年9月指出,2023年7月成立的OpenAI校準團隊計畫在4年內致力確保比人類更聰明的AI系統遵循人類意圖。為了協助完成這項任務,校準團隊將擁有OpenAI的20%可用稀缺運算資源。
Benzinga 5月9日報導,OpenAI執行長阿特曼在布魯金斯學會所舉辦的AI和地緣政治視訊會議上表示,他現在最擔心的是社會經濟變化的速度與幅度以及隨之而來的衝擊,如果不認真討論AI對經濟的影響、可能會面臨嚴重後果。
《麻省理工科技評論》5月1日報導,阿特曼受訪時表示,ChatGPT跟即將問世的技術相比簡直是小巫見大巫。
彭博社報導,美國商務部長雷蒙多(Gina Raimondo)2月表示,阿特曼等人提出的AI晶片需求預估值高得嚇人。
半導體產業協會(SIA)5月8日發布新聞稿指出,美國先進邏輯製程(10奈米以下)佔全球產能比重預估將從2022年的0%升至2032年的28%。
(圖片來源:Shutterstock)
*編者按:本文僅供參考之用,並不構成要約、招攬或邀請、誘使、任何不論種類或形式之申述或訂立任何建議及推薦,讀者務請運用個人獨立思考能力,自行作出投資決定,如因相關建議招致損失,概與《精實財經媒體》、編者及作者無涉。