【新要聞】Sam Altman問答張宏江:模型開源是正確發(fā)展路徑,應(yīng)小心前行
發(fā)布時間:2023-06-11 06:38:39 文章來源:21世紀(jì)經(jīng)濟(jì)報道
在過去四周里,OpenAI聯(lián)合創(chuàng)始人SamAltman已經(jīng)走過五個大洲的近20個國

在過去四周里,OpenAI聯(lián)合創(chuàng)始人Sam Altman已經(jīng)走過五個大洲的近 20 個國家,與學(xué)生、開發(fā)人員和國家元首會面,他希望推進(jìn)人工智能在全球范圍內(nèi)的合作。


(相關(guān)資料圖)

6月10日,在2023北京智源大會-AI安全與對齊論壇上,Sam Altman與智源研究院理事長張宏江進(jìn)行了視頻問答。

人工智能發(fā)展已勢不可擋,而保障安全勢在必行。Sam Altman提出在加大對AI系統(tǒng)對齊性能的研究外,亟需設(shè)計出公平的、有代表性和包容性的系統(tǒng)。此外,當(dāng)被問及未來是否將重新開放GPT的源代碼時,Sam Altman表示,公司目前開源了一部分模型,其他模型則不開源,但隨著時間的推移,他期待在保證安全的前提下,有更多的開源模型出現(xiàn)。

我們離安全的AGI有多遠(yuǎn)?

Sam Altman認(rèn)為,很難預(yù)測實現(xiàn)安全的AGI的確切時間,但他表示,在未來十年內(nèi),人類很可能擁有非常強(qiáng)大的人工智能,并且應(yīng)該為此做好準(zhǔn)備。

Sam Altman表示,目前業(yè)界存在關(guān)于模型數(shù)量與安全性相關(guān)性的不同看法,然而擁有少量模型或大量模型都不能讓我們更安全。

更重要的整體架構(gòu)的搭建,“是否有一種機(jī)制,確保任何柯林斯模型都需要經(jīng)過足夠的安全測試?是否有一個框架,讓那些創(chuàng)建了完備柯林斯模型的人具備足夠的資源和責(zé)任心,確保他們創(chuàng)造的東西是安全可靠的?”

我們離安全的AGI有多遠(yuǎn)仍沒有確鑿回答,然而Sam Altman對此報有高度激情?!皩ξ叶裕瑳]有比安全性工作更令人興奮、活力四溢、充實且重要的事情了。我堅信,如果您個人對一項重要的倡議非常認(rèn)可,您將會有無窮的力量去解決它。”

Sam Altman表示,沒人能阻擋人工智能的發(fā)展,而安全性工作作為其中的一部分,即使艱難也是必須進(jìn)行。

如何推進(jìn)全球合作?

Sam Altman的環(huán)球之旅已經(jīng)進(jìn)行到第四周,在此期間,他已經(jīng)去到五個大洲的近 20 個國家,與學(xué)生、開發(fā)人員和國家元首會面。他試圖推進(jìn)全球合作。

Sam Altman認(rèn)為,進(jìn)一步完善人工智能安全性需要了解不同國家和不同背景下用戶的偏好,因此需要吸納多元觀念。同時,他表示,鑒于解決先進(jìn)人工智能系統(tǒng)的困難,需要世界各地的優(yōu)秀人才共同努力。

Sam Altman認(rèn)為推進(jìn)全球合作中一個重要進(jìn)展是人們開始對如何安全開發(fā)先進(jìn)AI系統(tǒng)的國際標(biāo)準(zhǔn)感到興奮。

“過去6個月里,關(guān)于AGI的風(fēng)險和討論取得了很大的進(jìn)展,人們似乎致力于制定一個框架,讓AI造福人類?!盨am Altman表示。

在推進(jìn)全球合作的過程中,Sam Altman主要有三種計劃,一是在訓(xùn)練廣泛模型并在其部署之前,思考應(yīng)該進(jìn)行什么樣的測試;二是就構(gòu)建反映人們目標(biāo)、價值觀和實踐的數(shù)據(jù)庫進(jìn)行了新的討論,三是利用數(shù)據(jù)庫來使他們的系統(tǒng)與之對齊,并探討了開展共享AI安全性研究的形式問題

Sam Altman表示,“雖然全球合作總是很困難,但是我認(rèn)為這既是機(jī)會也是威脅,它將世界團(tuán)結(jié)在一起。”

如何通過技術(shù)解決安全問題?

張宏江提到,在過去幾年中,許多AI系統(tǒng)都付出了很多努力來優(yōu)化其對齊性能。但僅通過對齊性的研究也許并不能完全解決AGI的安全性問題。

Sam Altman認(rèn)為,“對齊”的研究還在不斷演變之中,從傳統(tǒng)意義上講,讓模型按照用戶意圖進(jìn)行溝通的對齊僅是其中的一部分,還會有其他方面的問題,例如,如何驗證系統(tǒng)正在按照我們的意愿行事,以及將系統(tǒng)與哪些價值觀對齊等,最重要的是全面考慮如何獲得安全的AGI。

“在技術(shù)之外,我們必須設(shè)計出公平的、有代表性和包容性的系統(tǒng)。我們不僅需要考慮AI模型本身的安全性,還需要考慮整個系統(tǒng)的安全性。因此,我們需要構(gòu)建安全的分類器和檢測器,以監(jiān)測符合用戶政策的情況?!盨am Altman表示。

此外,他認(rèn)為很難預(yù)測和預(yù)先解決任何技術(shù)可能出現(xiàn)的問題。因此,從實際使用中學(xué)習(xí)并快速部署數(shù)據(jù),觀察在一個國家中會發(fā)生什么,并給人們提供時間來學(xué)習(xí)、更新和思考這些模型將如何影響他們的生活,這也非常重要。

被問及是否將重新開放GPT的源代碼,就像在ChatGPT3.0之前一樣時,Sam Altman表示,公司開源了一部分模型,其他模型則不開源,但隨著時間的推移,他期待有更多的開源模型出現(xiàn)?!澳壳拔覜]有具體的模型或時間表,但這是我們正在努力的事情?!?/p>

據(jù)了解,Sam Altman主持了一個開源機(jī)構(gòu),將采用一種算法來開發(fā)模型,并引入新的Python模型和A-15模型。

開源是否會引發(fā)安全問題?Sam Altman以A-15模型為例說明,該模型提供了額外的安全控制,能夠阻止某些用戶、某些類型的微調(diào)。

“這是一個重要的回歸點(diǎn)。就目前模型的規(guī)模而言,我對此并不太擔(dān)心,但隨著模型變得越來越大,確保正確性的代價可能會變得昂貴。我認(rèn)為開源一切可能不是最優(yōu)的路徑,盡管這確實是正確的路徑。我認(rèn)為我們只需小心地朝著這些節(jié)點(diǎn)前進(jìn)?!盨am Altman表示。

(文章來源:21世紀(jì)經(jīng)濟(jì)報道)

標(biāo)簽:

資訊播報

樂活HOT

娛樂LOVE

精彩推送