久久久久亚洲精品中文字幕,久久毛,中文字幕人妻无码专区,亚洲久久久免费视频一区二区三区,国产亚洲精品美女在线

您的位置:首頁 >資訊 > 關(guān)注 >

OpenAI CTO:ChatGPT火得出乎意料 暫無升級至GPT-5的計劃

劃重點:

1OpenAI首席技術(shù)官穆拉蒂表示,該公司希望能夠以符合人類意圖、安全的方式構(gòu)建通用人工智能系統(tǒng),以便讓它去做人們想讓它去做的事情,并最大限度地讓盡可能多的人受益。2穆拉蒂承認,馬斯克等人聯(lián)名簽署的公開信中提及的某些風險的確存在,但關(guān)于GPT-4或GPT-5開發(fā)的部分陳述不夠真實,OpenAI沒有在訓練GPT-5,甚至在未來6個月內(nèi)都沒有這樣的計劃。3穆拉蒂說,OpenAI和她都沒有預(yù)料到人們會如此癡迷于與人工智能系統(tǒng)對話,用戶數(shù)量在短時間內(nèi)激增,沒想到它會火爆到這種程度。

騰訊科技訊 4月25日消息,人工智能聊天機器人ChatGPT的創(chuàng)建公司OpenAI如今幾乎已經(jīng)無人不曉,但當米拉·穆拉蒂(Mira Murati)于2018年加入這家非盈利研究實驗室時,它卻還鮮為人知。之后不久,OpenAI進行了一次重大轉(zhuǎn)型。作為ChatGPT的創(chuàng)建者,它幾乎吸引了全世界的關(guān)注。


(資料圖)

穆拉蒂現(xiàn)在是OpenAI的首席技術(shù)官,領(lǐng)導著該公司的研究、產(chǎn)品和安全團隊。她負責OpenAI人工智能模型的開發(fā)和推出,包括ChatGPT、圖像生成器DALL-E和最新的大語言模型GPT-4。

最近接受媒體采訪時,穆拉蒂談及GPT如何向通用人工智能(AGI)過渡、OpenAI采取哪些措施確保技術(shù)安全、人工智能是否應(yīng)接受監(jiān)管、OpenAI是否在開發(fā)GPT-5以及是否料到ChatGPT會如此火爆。

以下為專訪全文:

問:通用人工智能對OpenAI意味著什么?

穆拉蒂:所謂的通用人工智能,我們通常指的是能夠產(chǎn)生經(jīng)濟產(chǎn)出的高度自主系統(tǒng)。換句話說,該系統(tǒng)可以被應(yīng)用到不同的領(lǐng)域,具備類似人類水平的能力。OpenAI的具體愿景是安全地構(gòu)建通用人工智能系統(tǒng),并找出如何以符合人類意圖的方式構(gòu)建它,這樣人工智能系統(tǒng)就能做我們想讓它們做的事情,并最大限度地使盡可能多的人受益。理想情況下,每個人都能從中受益。

問:像GPT-4和通用人工智能這樣的產(chǎn)品之間有什么聯(lián)系嗎?

穆拉蒂:我們距離擁有一個安全、可靠、始終如一的通用人工智能系統(tǒng)還很遙遠,但我們已經(jīng)找到實現(xiàn)這個目標的幾個途徑。從研究的角度來看,我們正試圖構(gòu)建對世界有充分理解的系統(tǒng),就像我們?nèi)祟愐粯?。像GPT-3這樣的系統(tǒng)最初只在文本數(shù)據(jù)上進行訓練,但我們的世界不僅僅是由文本組成的,所以我們也用圖像訓練,然后我們開始引入其他模式。

另一個角度是擴展這些系統(tǒng)以增加它們的通用性。對于GPT-4,我們試圖構(gòu)建更有能力的系統(tǒng),特別是從事物推理的角度來看,這種能力至關(guān)重要。如果語言模型足夠聰明,能夠理解模棱兩可的指令,那么我們就可以弄清楚如何使它按照這個方向繼續(xù)進化。但如果它無法理解更復(fù)雜的指令,就很難協(xié)調(diào)一致。

在實驗室中研究這種技術(shù)遠遠不夠,我們更需要它與現(xiàn)實接軌,與現(xiàn)實世界接觸,看看哪里存在弱點,哪里有可能突破,并嘗試以一種可控的、低風險的方式來做這件事,同時獲得盡可能多的反饋。

問:你們采取了哪些安全措施?

穆拉蒂:我們在每個研發(fā)階段都考慮了干預(yù)措施。我們編輯了模型初始訓練中的某些數(shù)據(jù)。通過推出DALL-E,我們希望減少我們所看到的有害偏見問題。我們也調(diào)整了訓練數(shù)據(jù)集中女性和男性圖像的比例,但是你必須非常小心,因為這可能會造成其他的不平衡問題。你必須不斷地審核。在這種情況下,我們得到了不同的偏見。因此,你必須再次調(diào)整它,每次進行干預(yù)時都要非常小心,看看還有什么被擾亂了。在模型訓練中,特別是在ChatGPT上,我們使用人類反饋進行強化學習,以幫助模型更加符合人類的偏好?;旧?,我們要做的就是放大被認為是好的行為,然后減少被認為是壞的行為。

問:這些系統(tǒng)應(yīng)該受到監(jiān)管嗎?

穆拉蒂:當然,這些系統(tǒng)應(yīng)該受到監(jiān)管。在OpenAI,我們始終在與政府、監(jiān)管機構(gòu)和其他正在開發(fā)這些系統(tǒng)的組織進行對話,至少在公司層面上,就某種程度的標準達成了一致。在過去的幾年中,我們與大型語言模型開發(fā)人員一起在這方面做了許多工作,以統(tǒng)一這些模型部署的基本安全標準。但我認為還有很多事情要做。政府監(jiān)管機構(gòu)當然應(yīng)該積極參與進來。

問:呼吁業(yè)界暫停構(gòu)建比GPT-4更強大人工智能模型6個月的公開信引起了很多關(guān)注,你如何看待這份請愿書及其對人工智能風險的假設(shè)?

穆拉蒂:在我看來,在復(fù)雜系統(tǒng)中設(shè)計安全機制是很困難的,會有很多細微差別。公開信中提及的某些風險的確存在。在OpenAI,我們多年來始終在公開討論它們,也在研究它們。我不認為簽署公開信是建立安全機制或協(xié)調(diào)業(yè)內(nèi)參與者的有效方式。信中關(guān)于GPT-4或GPT-5開發(fā)的部分陳述是完全不真實的,我們沒有在訓練GPT-5,甚至在未來6個月內(nèi)都沒有這樣的計劃。

此外,我們也沒有急于推出GPT-4。事實上,我們花了六個月的時間,完全專注于GPT-4的安全開發(fā)和部署。即便如此,我們還是為其設(shè)置了大量安全護欄,并以協(xié)調(diào)各方和緩慢的速度推出了它。并不是每個人都可以輕松訪問GPT-4,當然它也不是開源的??偠灾矣X得為這些人工智能系統(tǒng)抑或是任何復(fù)雜的技術(shù)系統(tǒng)開發(fā)安全機制和協(xié)調(diào)機制都是困難的,需要所有參與者進行大量思考、探索和協(xié)調(diào)。

問:自從你加入OpenAI以來,OpenAI發(fā)生了哪些變化?

穆拉蒂:當我加入OpenAI時,它還是個非盈利組織。我當時認為,人工智能是我們?nèi)祟愃軇?chuàng)造的最重要技術(shù),我真的覺得只有奉行OpenAI使命的公司才最有可能確保它的順利演進。隨著時間的推移,我們改變了我們的公司結(jié)構(gòu),因為開發(fā)和運營這些系統(tǒng)很昂貴,我們需要大量的資金支持。

我們確保以這樣一種方式構(gòu)建激勵機制,即我們?nèi)匀环?wù)于非營利使命,這就是為什么我們設(shè)定“利潤上限”結(jié)構(gòu)的初衷。OpenAI的員工都有內(nèi)在的動力和使命,這一點從一開始就沒有改變過。但在過去的五年里,我們的想法發(fā)生了很大變化,特別是當涉及到什么是最好地部署方式,什么是最安全的方式等問題時。這可能是最明顯的區(qū)別,但我認為這是一個很好地改變。

問:在去年11月30日ChatGPT發(fā)布之前,你是否預(yù)料到外界對它的反應(yīng)?

穆拉蒂:實際上,基礎(chǔ)技術(shù)已經(jīng)出現(xiàn)了好幾個月。得益于已經(jīng)通過API使用大語言模型的客戶的反饋,我們對模型的局限性非常了解。但是我們在基本模型的基礎(chǔ)上做了很多改變。我們把它改編成對話,然后通過一個新的ChatGPT界面將其提供給研究人員。

我們一直在與一個值得信賴的小團隊進行內(nèi)部探索,我們意識到瓶頸是從人們那里獲得更多信息和更多數(shù)據(jù)。我們希望將其擴展給更多的人,但我們將其稱之為研究預(yù)覽,而不是真正的產(chǎn)品。這樣做的目的是收集關(guān)于模型行為的反饋,并使用這些數(shù)據(jù)來改進模型。我們沒有預(yù)料到人們會如此癡迷于與人工智能系統(tǒng)對話,它畢竟只是預(yù)覽版,用戶數(shù)量在短時間內(nèi)激增,我們沒想到它會火爆到這種程度。(金鹿)

關(guān)鍵詞: