OpenAI CTO深度訪談:劇透GPT-5發佈時間

智東西(公眾號:zhidxcom)

編譯 |  陳駿達

編輯 |  panken

智東西6月25日消息,近日,openai首席技術官米拉·穆拉提(mira murati)在達特茅斯塞耶工程學院畢業季的活動上,與前亞馬遜高管、現達特茅斯學院受託人的傑弗里·布萊克本(jeffery blackburn)開展了一場50分鐘的深度訪談。

▲穆拉提在達特茅斯學院(圖源:達特茅斯學院)

在這場訪談中,穆拉提分享了自己從航天行業、汽車行業、vr/ar再到加入openai的豐富職業生涯,並根據自己在行業最前沿的所見所聞,分析了ai治理、ai對教育的影響、ai對工作的影響等問題。

她在訪談中透露,明年或後年就會出現博士水平的智能系統,這或許指的就是gpt-5。她更是拋出一個極具爭議性的觀點,有些創意工作本不該存在,而ai很快便會取代這些職位。這一觀點在網上引發軒然大波,認為openai吃了飯就砸鍋,並不理解創造力意味着什麼。

穆拉提認為openai的成就離不開深度神經網絡、大量數據和大量算力這3個因素的疊加,雖然他們還在研究背後的原理,但實踐證明深度學習真的行得通。

她稱ai安全和ai能力是一體兩面的,聰明的模型才能理解我們給它設定的護欄。從工程的角度上來看,ai能力的提升並不會降低模型的安全性。openai對模型的安全性負有很大責任,但要實現風險的有效管控,社會和政府的參與也是必不可少的。openai正積極與政府和監管機構合作,共同解決ai安全問題。

在場的觀眾也向穆拉提拋出了尖銳的問題。穆拉提在回應觀眾對於模型價值觀的問題時提到,openai目前已經通過人類反饋強化學習將人類價值觀融入ai系統,但未來的重點會是在基礎價值體系上,給客戶提供高度定製化的模型價值體系。

觀眾還就openai最近的侵權疑雲和內容創作者的許可和補償問題詢問穆拉提的看法。穆拉提再次強調openai並未刻意模仿斯嘉麗的聲音,她挑選聲音的決策過程是完全獨立的。

至於版權內容,openai目前在嘗試以聚合數據池的形式,讓創作者提供版權內容到數據池中,整體評估創意內容對模型表現的貢獻,並給予相應的報酬。但這一技術頗具難度,實際落地還需要一段時間。

與openai ceo薩姆·阿爾特曼(sam altman)不同,穆拉提之前的公眾認知度較低。她在1998年出生於阿爾巴尼亞,之後到加拿大和美國求學。

她2018年便加入openai,是openai的早期成員之一。作為openai的cto,她領導了openai在chatgpt、dall·e、codex和sora方面的工作,同時還監管公司的研究、產品和安全團隊。

微軟首席執行官薩蒂亞·納德拉(satya nadella)評價穆拉提時說到,她既具備技術專長,也頗有商業頭腦,並對openai的使命有深刻認識。

以下是對穆拉提在達特茅斯學院深度訪談的完整編譯(為提高可讀性,智東西調整了部分問答的順序,並在不違背原意的前提下進行了一定的增刪修改):

一、干過航天、汽車、vr/ar等行業,發現自己對ai最感興趣

傑弗里·布萊克本:大家都想聽聽你的近況和你正在構建的東西,這真是太吸引人了。不過也許我們應該從你的故事開始。你畢業後去了特斯拉一段時間,然後是openai。你能簡短地和我們描述一下那個時期嗎,還有你加入早期的openai的故事。

米拉·穆拉提:我大學畢業之後其實在航空領域短暫工作過,但之後我意識到航空領域的發展相當緩慢。我對特斯拉的使命非常感興趣,也對構建可持續交通的未來需要面臨的創新挑戰感興趣,因此我決定加入特斯拉。

在參與model s和model x的工作後,我意識到自己也不想在汽車行業工作。我想要做一些能真正推動社會發展的事情,同時解決一些非常困難的工程挑戰。

我在特斯拉的時候對自動駕駛汽車、計算機視覺、ai這些技術和它們在自動駕駛汽車上的應用很感興趣。我那時候想更深入地了解ai的其它領域。於是我加入了一家初創公司,在那裡領導工程和產品團隊,將ai和計算機視覺應用於空間計算領域,研究計算的下一個界面。

當時我認為計算的交互界面會是vr和ar,但現在我的想法不一樣了。那時候我認為,如果我們可以用手與非常複雜的信息交互,無論是公式、分子還是拓撲概念,我們便可以更直觀地了解這些東西,擴展自己的學識。然而事實證明,當時談vr還為時過早。

但這給了我許多機會,能了解不同領域的ai技術。我想我的職業生涯一直都處於技術和應用的交叉點。這給了我一個不同的視角,能大致了解ai的發展程度以及它可以應用到什麼領域。

傑弗里·布萊克本:所以在特斯拉的自動駕駛研究中,你看到了機器學習、深度學習的可能性,看到了它的發展方向。

米拉·穆拉提:是的。但我並沒有看得很清楚。

傑弗里·布萊克本:你給馬斯克工作過嗎?

米拉·穆拉提:是的,特別是在最後一年。但那時我們還不太明確ai的發展方向。當時,我們仍然只是將ai應用於特定的應用場景里,而非通用的場景。vr和ar也是如此。而我不想只是將這些技術應用於具體問題。我想做更多的研究,了解背後的原理,然後開始將這些技術應用到其他事物上。

我就在這個階段加入了openai,openai的使命對我非常有吸引力。當時它是一個非營利組織。現在使命沒有變,但結構變了。當我6年前加入時,它是一個致力於構建安全agi(通用人工智能)的非營利組織。當時openai是deepmind之外唯一一個做相關研究的公司。這就是我在openai旅程的開始。

二、3大技術進步讓chatgpt成為可能,實踐證明模型能深入理解數據

傑弗里·布萊克本:明白了,所以你從那時起你就一直在構建很多東西。也許你可以為在場的觀眾提供一些ai的基礎知識。從機器學習、深度學習到現在的ai,這些概念都是相互關聯的,但也各有不同。這些轉變是如何發生的呢,又是如何讓chatgpt、dall·e或者sora這樣的產品成為可能的呢?

米拉·穆拉提:其實我們的產品並不是全新的,在某種意義上我們的產品是建立在過去幾十年人類共同的努力的基礎上的。其實ai就開始於達特茅斯學院。

在過去幾十年中,神經網絡、大量數據和大量算力的結合帶來了真正具有變革性的ai系統或模型,它們能夠執行一般性任務。儘管我們不清楚其為何成功,但是深度學習真的行得通。我們也試圖通過研究和工具來理解這些系統的實際運作方式。不過根據我們過去幾年研究ai技術時的經驗,我們知道這條路行得通。我們也見證了它們逐漸進步的軌跡。

以gpt-3為例,這是一個大約三年半前部署的大型語言模型。其目標是預測下一個token,基本上是下一個單詞的預測。我們發現,如果我們給這個模型預測下一個token的任務,並用大量數據訓練這個模型,給它大量計算資源時,我們還能獲得一個真正理解語言的模型,而且其理解水平與人類相似。

它通過閱讀大量書籍和互聯網的信息,形成了自己對這些數據的模式的理解,而不僅僅是簡單地記憶。我們還發現,這種模型不僅可以處理語言,還可以處理不同類型的數據,如代碼、圖像、視頻和聲音。它並不在乎我們輸入什麼數據。

我們發現,數據、計算和深度學習的結合運作得非常好,通過增加數據類型和計算量,這些ai系統的性能會不斷提高。這便是所謂的擴展法則(scaling laws)。它不是實際的法則,而是模型能力提高的統計學預測。這就是推動今天ai進步的動力。

傑弗里·布萊克本:你們為什麼選擇了聊天機械人作為第一款產品呢?

米拉·穆拉提:就產品而言,我們其實是從api開始的,而不是聊天機械人。因為我們不知道如何將gpt-3商業化。商業化ai技術實際上非常困難。我們最初專註於技術的開發和研究,我們認為只要構建了一個優秀的模型,商業夥伴就會自然地拿它去構建產品。但後來我們發現這實際上非常困難,這也是為什麼我們開始自己開發產品。

於是我們開始自己構建一個聊天機械人,我們試圖理解為什麼一個成功的公司不能將這項技術轉化為有用的產品。我們最終發現,這其實是一種非常奇怪的構建產品的方式——從技術出發,而不是從要解決的問題出發。

三、模型能力和安全性相輔相成,聰明的模型才能理解人類設定的護欄

傑弗里·布萊克本:隨着算力、數據的增長,智能似乎在以線性的方式發展,只要增加這些元素,它就變得更聰明。chatgpt在過去幾年中的發展到底有多快呢?它又會在何時實現人類水平的智能呢?

米拉·穆拉提:其實這些系統已經在某些領域達到了與人類相似的水平,但在很多任務上確實也還存在差距。根據系統發展的軌跡,像gpt-3這樣的系統可能具有幼兒級別的智能,而gpt-4則更像是聰明的高中生。在未來幾年,我們將看到它們在特定任務上達到博士學位水平的智能。發展進步的速度還是很快的。

傑弗里·布萊克本:你是說一年內會有這樣的系統嗎?

米拉·穆拉提:一年半吧。或許那時候就會有能在很多領域超越人類表現的ai系統了。

傑弗里·布萊克本:這種快速的智能發展引發了關於安全性的討論。我知道你一直非常關注這一話題,我也樂見你在研究這些問題。不過大家真的很想聽聽你的觀點。

假設3年後,當ai系統變得極為聰明,能夠通過任何地方的每一個律師考試和我們設計的每一個測試時,它有沒有可能自己決定接入互聯網,並開始自主行事呢?這會成為現實嗎,作為openai的cto和引領產品方向的人,你會思考這些問題嗎?

米拉·穆拉提:我們一直在考慮這個問題。我們勢必會擁有具有行為能力的ai系統,它們能夠連接到互聯網、相互交談、共同完成任務,或者與人類一起工作,實現與人類的無縫協作。

至於這些技術的安全問題和社會影響,我認為不能在問題出現之後才想着解決,而是需要在技術發展的同時,將問題的解決方案嵌入到技術中,才能確保正確處理這些風險。

模型能力和安全性是相輔相成的,它們攜手並進。告訴一個聰明的模型不要做某事,要比讓一個不聰明的模型理解這一概念要容易得多。這就好像訓練一隻聰明的狗和不聰明的狗的區別。智能和安全是密不可分的。更聰明的系統能更好地理解我們設定的護欄。

目前大家在爭論是應該進行更多安全研究,還是ai能力的研究。我認為這種觀點是具有誤導性的。

因為在開發產品時,當然要考慮安全性和護欄,但在研發方面,它們實際上是相輔相成的。我們認為應該非常科學地來看待這個問題,嘗試在模型完成訓練前預測出它們將具備哪些能力,然後在此過程中準備相應的護欄。

但到目前為止,這在行業中並非常態。我們訓練這些模型,然後出現了所謂的湧現能力。這些能力是突然湧現的,我們不知道它們是否會出現。我們雖然可以看到數據上的性能提升,但我們不知道這種數據的提升能是否意味着模型在翻譯、生物化學、編程或其他方面做得更好。

做好預測模型能力的科學研究,有助於我們為即將到來的事情做好準備。所有安全方面的研究工作與技術的發展方向是一致的,必須一同實現。

四、深度偽造風險不可避免,多方合作才能解決問題

傑弗里·布萊克本:米拉,現在網上也出現了ai偽造的烏克蘭總統澤連斯基說「我們投降」的視頻,或者湯姆·漢克斯視頻的牙醫廣告,你如何看待這類的事情呢?這是不是你們公司應該管控的問題,或者是否需要有相關法規來規範,你是如何看待這個問題的呢?

米拉·穆拉提:我的看法是,這是我們的技術,所以我們對用戶如何使用它負有責任。但這也是與民眾、社會、政府、內容製作者、媒體等共同的責任,我們需要一起弄清楚如何使用這些技術。但為了使其成為共同的責任,我們需要帶領人們,給他們提供訪問權限,給他們提供工具來理解這些技術,並給予適當的護欄。

我認為不可能完全沒有風險,但問題是要如何最小化風險,並為人們提供這樣做的工具。以政府為例,非常重要的是與他們一同研究,並讓他們提前接觸到事物,讓政府以及監管機構了解企業里發生了什麼。

也許chatgpt所做的最重要的事情就是讓公眾意識到ai的存在,讓人們真正直觀地感受到這項技術的能力以及它的風險。當人們親自嘗試ai技術並將其應用於自己的業務時,就能清楚的意識到它不能做某些事情,但可以做很多其它的事情,明白這一技術對自己或者整個勞動力市場意味着什麼。這讓人們可以做好準備。

五、前沿模型需要更多監管,做好模型能力預測是關鍵

傑弗里·布萊克本:這是一個很好的觀點,你們創建的這些互動界面,比如chatgpt、dall·e讓人們知道了未來會出現什麼。關於政府我還想談最後一點。你希望現在就有一些規定被制定出來,而不是等到一年或兩年後當系統變得非常智能,甚至是有點可怕的時候。那我們現在究竟應該做什麼呢?

米拉·穆拉提:我們一直在主張對前沿系統進行更多的監管,這些模型的能力出色,但正因如此可能由於濫用而造成的負面影響也更大。我們一直對政策制定者持有非常開放的態度,並與監管機構合作。對於更小的模型,我認為允許生態系統中有很多的廣度和豐富性是好的,不要讓人們因為擁有的計算或數據資源較少而無法參與這一領域的創新。

我們一直在主張對前沿系統進行更多的監管,那裡的風險要高得多。而且,你可以提前預見即將到來的事情,而不是試圖跟上已經迅速發生的變化。

傑弗里·布萊克本:你們可能不希望美國政府對gpt-5的發佈進行監管吧?讓他們對你們指手畫腳。

米拉·穆拉提:這也看情況吧,我們在做的許多安全工作已經被政府編纂到ai監管的準則里了。我們已經完成了不少ai安全的工作,甚至為美國政府乃至聯合國提供了ai部署的相關原則。

我認為要做好ai安全,需要真真正正地參與ai研究,理解這些技術在實踐過程中意味着什麼,然後根據這些理解創建相關的規定。這也是目前正在發生的事情。

要讓監管領先於這些前沿系統,我們需要在模型能力預測領域進行進一步的科研,以便提出正確的監管。

傑弗里·布萊克本:我希望政府有能夠理解你們在做什麼的人。

米拉·穆拉提:似乎越來越多的人加入政府,這些人對ai有更好的理解,但還不夠。

六、所有知識型工作都會受ai影響,ai讓一切事情的「初稿」都變得更簡單

傑弗里·布萊克本:你們應該是ai行業,乃至整個世界中,最能看清這項技術將如何影響不同行業的公司。它已經在金融、內容、媒體和醫療等領域有所應用。展望未來,你認為那些行業會因為ai和你們在openai的工作,而產生巨大的變革呢?

米拉·穆拉提:這很像是我們剛剛開始構建基於gpt-3的產品時,企業家問我們的問題。人們會問我,我能用它做什麼?它有什麼用?我會說,任何事情,你嘗試一下就知道了。我認為它將影響一切行業,沒有領域不會受到影響,至少在知識型工作和知識勞動方面不會。也許進入物理世界需要一點時間,但我認為一切都將受到影響。

現在我們看到,ai在高風險領域如醫療保健或法律領域的應用有所滯後。這也是很合理的。首先,你要在低風險、中等風險的用例中理解並使用它,確保這些用例得到安全的處理,然後才能將其應用到高風險的事情上。最初應該有更多人類的監督,然後逐漸切換到更高的人機協作程度。

傑弗里·布萊克本:有哪些用例是正在出現、即將出現或者你個人比較喜歡的?

米拉·穆拉提:到目前為止,我最喜歡的用例就是,ai讓我們做的所有事情的第一步都變得更加容易了,無論是創建一個新的設計、代碼、文章、電子郵件,都變得更加容易了。

一切事物的「初稿」都變得更加容易,它降低了做某件事的障礙,讓人們可以專註於更有創意、更困難的部分。特別是在代碼方面,你可以把很多繁瑣的工作外包給ai,比如文檔方面的。在行業方面,我們已經看到了很多應用。客服絕對是ai聊天機械人的重要應用領域。

分析類的工作也是,因為現在我們已經將很多工具連接到核心模型上,這使得模型更加易用和高效。我們現在有代碼分析工具,可以分析大量的數據,可以將各種數據傾倒入其中,它可以幫助你分析和篩選數據。你可以使用圖像生成工具,你可以使用瀏覽工具。如果你是在準備論文,ai能讓你的研究工作可以更快、更嚴謹地完成。

我認為這是模型生產力進步的下一層次——即給核心模型加上工具,並讓它們深度融合。模型會決定何時使用分析工具、搜索或代碼工具。

七、有些創意工作本不該存在,模型將成為極佳的創意工具

傑弗里·布萊克本:隨着模型逐漸觀看了世界上所有的電視節目和電影,它是否會開始編寫劇本和製作電影?

米拉·穆拉提:這些模型是一種工具,作為工具它當然可以完成這些任務。我期望我們能與這些模型合作,擴展我們創造力的邊界。

而人類是如何看待創造力的呢?我們認為它是一種非常特殊的東西,只有少數有才華的人才能接觸到。而這些工具實際上降低了創造力的門檻,提升了人們的創造力。所以從這個意義上說,我認為模型會成為很好的創意工具。

但我認為它真的將成為一個協作性工具,特別是在創意領域。更多的人將變得更加有創造力。一些創意工作可能會消失,但如果它生產的內容質量不高,也許它們從一開始就不應該存在。我真的相信ai可以成為教育和創造力的工具,它將提升我們的智力、創造力和想像力。

傑弗里·布萊克本:人們曾經認為cgi等東西會毀掉電影行業,他們當時非常害怕。ai的影響力肯定要大於cgi,但我希望你對ai的看法是對的。

八、ai對工作的影響尚未可知,但經濟轉型勢不可擋

傑弗里·布萊克本:人們擔心許多工作可能面臨被ai取代的風險。ai對人們的工作究竟有什麼影響,你能從整體上談談這個問題嗎?人們應該真的為此擔憂嗎?哪些類型的工作更危險,你是如何看待這一切的發展的?

米拉·穆拉提:事實上,我們並不真正了解ai將對就業產生什麼影響。第一步是幫助人們理解這些系統能做什麼,將它們集成到他們的工作流程中,然後開始預測和預測影響。並且我認為,人們並沒有意識到這些工具已經被大量的使用了,這方面的研究還不夠。

因此,我們應該研究當前工作的本質、教育的本質發生了什麼變化,這將幫助我們預測如何為這些ai能力的提升做好準備。具體而言,我不是經濟學家,但我確實預計會有很多工作發生變化,一些工作將消失,一些工作機會將出現,我們不知道具體會是什麼樣子,但可以想像許多嚴格意義上來說的重複性的工作將會消失。人們在做這些工作的時候並沒有任何成長。

傑弗里·布萊克本:你認為會有足夠多的其他工作被創造出來嗎,能不能補償這些消失的工作?

米拉·穆拉提:我認為會有很多工作被創造出來,但是創造多少工作,改變多少工作,失去多少工作,我不知道。我也不認為現在有人真正知道,因為這一問題還沒有被仔細研究,但真的需要引起重視了。

但是我認為經濟將會轉型,這些工具將會創造很多價值,所以問題是如何利用這個價值。如果工作的性質真的改變了,那麼我們如何將經濟價值分配到社會中。是通過公共福利嗎?是通過全民基本收入(ubi)嗎?是通過一些其他新系統嗎?有很多問題需要探索和解決。

九、ai能實現高等教育普惠化,提供定製化學習服務

傑弗里·布萊克本:也許高等教育在你描述的工作中扮演了一個重要角色。你認為高等教育在ai的未來和演變中扮演什麼角色?

米拉·穆拉提:我認為弄清楚如何使用ai工具促進教育事業是很重要的。因為我認為ai最強大的應用之一將是在教育中,提升我們的創造力和知識。我們有機會利用ai建立超高質量的教育,非常容易獲得,理想情況下對世界上任何人都是免費的,能以任何語言的形式呈現,反應文化間的細微差別。

有了ai,我們可以為世界上的任何人提供定製的教育。當然,在像達特茅斯這樣的機構中,教室更小,學生可以獲得很多關注。不過即使在這裡,也很難有一對一的輔導,更不用說在世界其他地方了。

其實我們沒有花足夠的時間學習如何學習,這通常發生在很晚的時候,比如在大學。但學習的技能是一件非常基本的事情,不掌握這項技能就會浪費很多時間。有了ai,課程、課程設置、問題集,一切都可以根據學生自己的學習方式進行定製。

傑弗里·布萊克本:所以你認為即便是在像達特茅斯這樣的地方,ai也能對教育有所補充?

米拉·穆拉提:絕對可以,是的。

十、用戶反饋形成了系統的基本價值體系,正在研發價值觀高度定製化的系統

傑弗里·布萊克本:要不我們開始觀眾提問環節吧?

米拉·穆拉提:好的,沒問題。

觀眾1:作為達特茅斯的第一批計算機科學家之一,john kemeny曾經做過一次講座,講述人類構建的每個計算機程序都嵌入了人類價值觀,無論是有意還是無意。

你認為gpt產品中嵌入了哪些人類價值觀?或者換句話說,我們應該如何將尊重、公平、公正、誠實、正直等價值觀嵌入到這些工具中?

米拉·穆拉提:這是一個很好的問題,也是一個很困難的問題。這些問題我們已經思考了很久了。目前系統中的很多價值觀基本上是通過數據嵌入的,也就是互聯網上的數據,許可數據,還有人類標註員的標註數據。每個都有特定的價值觀,所以這是一個價值觀的集合,這很重要。一旦我們將這一產品投放到世界中,我們就有機會從更多人手中,獲得更廣泛的價值觀集合。

現在我們在chatgpt上向人們免費提供最強大的系統,全世界有超過1億人使用過。這些人都可以向chatgpt提供反饋。如果他們允許我們使用數據,我們將使用它來創建這個聚合的價值觀,使系統更好,更符合人們的期望。

但這是默認的底層系統。我們真正想要的是在底層系統上還有一個自定義層,讓每個群體都可以有他們自己的價值觀。比如說一個學校、一個教堂、一個國家,甚至一個州,他們在這個有基本人類價值觀的默認系統之上,提供自己更具體、更精確的價值觀,建立屬於他們自己的系統。

我們也在研究如何做到這一點。但這真的是一個很困難的問題。因為既有人類自己的問題,因為我們並不能所有事情上都達成一致。然後還要解決技術問題。在技術問題上,我認為我們已經取得了很多進展。我們使用像人類反饋強化學習這樣的方法,讓人們將自己的價值觀輸入系統中。我們剛剛發佈了模型規範指南spec,它提供了更高的透明度,讓人們了解系統中的價值觀。我們也正在建立一種反饋機制,我們收集輸入和數據,評估spec的推進情況,你可以將其視為ai系統的憲法。

但這一「憲法」是不斷變化的,因為我們的價值觀也隨着時間的推移而發展。它會變得更加精確。這是我們正在重點研究的問題。現在我們正在考慮基本價值觀,但隨着系統變得越來越複雜,我們將不得不考慮更細緻的價值觀。

傑弗里·布萊克本:你能防止它變得憤怒嗎?

米拉·穆拉提:不,那實際上應該由你決定。作為用戶,如果你想要一個憤怒的聊天機械人,你就可以擁有一個這樣的聊天機械人。

十一、紅隊演練中並未發現sky聲音的問題,正研究如何向創作者提供報酬

觀眾2:我真的很好奇,你是如何考慮版權問題和生物特徵權利(比如聲紋、指紋等)的。你之前提到一些創意工作可能不再存在,許多從事創意行業的人正在思考數據使用的許可和補償問題。因為無論是專有模型還是開源模型,數據都是從互聯網上獲取的。我真的很想知道你對許可和補償的看法,因為這涉及到版權問題。

還有一件事是生物特徵權利,比如聲音、肖像等方面的權利。openai最近出現了關於sky聲音的爭議,今年的選舉年也受到深度偽造信息的威脅,你是如何看待這些問題的呢?

米拉·穆拉提:好的,我會從最後一部分開始講起。我們對語音技術做了很多研究,直到最近才發佈,因為它們帶來了很多風險和問題。

但同樣重要的是,要讓社會接受,在給人們使用權限的同時設置好防護措施並控制風險,同時也版主其他人研究並取得進展。

例如,我們正在與機構合作,幫助我們思考ai與人類的互動。現在模型有了聲音和視頻,這些都是非常能引起情感共鳴的模態。我們需要理解這些事情會怎麼發展,為這些情況做好準備。

在這一情況下,sky的聲音並不是斯嘉麗·約翰遜的聲音,也無意成為她的聲音。我負責選擇聲音,我們的首席執行官正在與斯嘉麗·約翰遜進行對話。這兩個過程是完全平行,互不干涉的。

但出於對她的尊重,我們將其撤下。有些人聽到了一些相似之處,但這些事情是很主觀的。

我認為處理這類問題可以採取紅隊演練的方式(一般指網絡實戰攻防演習),如果聲音被認為與一個著名的公眾聲音非常相似,那麼我們就不選擇這個聲音。

不過在我們的紅隊演練中,這個問題並沒有出現。這就是為什麼進行更廣泛的紅隊演練以提前捕捉這些問題是很重要的。

但我們關於生物特徵問題的整體策略是,最初只向少數人提供訪問權限,比如專家或紅隊成員,讓他們幫助我們很好地理解風險和能力,我們據此建立解決措施。

隨着我們對這些措施更有把握後,我們再向更多的人提供訪問權限。我們不允許人們使用這項技術製作自己的聲音,因為我們仍在研究這一問題的風險,我們還沒有信心能夠處理好那個領域的濫用問題。

但我們對於chatgpt里目前的幾個聲音的安全措施還是比較滿意的,它能較好的防止濫用問題。我們從一個小規模測試開始,本質上是擴展的紅隊演練。然後當我們將規模擴展到1000個用戶時,我們的alpha版本將與這些用戶緊密合作,收集反饋並了解極端情況,以便我們在擴展到10萬人規模時為這些情況做好準備。然後是100萬人,然後是1億人,以此類推。但這都是在嚴格的控制下進行的,這就是我們所說的迭代部署。

如果我們不覺得這些用例足夠安全,那麼我們就不會將它們發佈給用戶。或者我們會針對這些特定用例,以某種方式對產品進行功能限制,因為能力和風險是共存的。

但我們也在進行很多研究,幫助我們處理內容出處和內容真實性的問題,讓人們有工具來理解某些東西是否是深度偽造的,或者是虛假信息等等。

自從openai成立之初,我們就一直在研究虛假信息問題。我們構建了很多工具,比如水印、內容政策等,允許我們管理虛假信息。特別是今年,鑒於這是一個全球性的選舉年,我們更加加強了這項工作。

然而這是一個極其具有挑戰性的領域,我們作為技術和產品製造商需要做很多工作,但也需要與民眾、社會、媒體和內容製作者合作,共同研究如何解決這些問題。

在開發語音和sora等技術時,我們首先與紅隊成員展開合作,一同研究風險。之後就是和內容創作者研究這一問題,了解這項技術將如何幫助他們,如何構建一個既安全、有用,並且能真正推動社會進步的產品。我們在dall·e和sora上都做了類似的研究。

補償和許可的問題是很重要的,同時也很有挑戰。我們與媒體公司進行了很多合作,還給了人們很多控制權,讓他們可以自己決定數據在產品中的使用方式。如果他們不希望他們的數據被用來改進模型,或讓我們進行任何研究或訓練,那完全可以。我們就不使用這些數據。

然後對於一般的創作者社區,我們很早就讓他們使用這些工具,這樣我們可以首先聽到他們的意見,了解他們希望如何使用它,根據這些信息構建最有用的產品。

此外,這些都是研究預覽版,所以我們不需要花大價錢構建產品。我們只有在確定這項技術能帶來很大用處時才會大量投入資金進行開發。

我們也在嘗試創建一些工具,允許人們按照他們的數據貢獻獲得補償。這從技術角度來說非常棘手,也很難構建這樣的產品,因為你必須弄清楚特定數量的數據在經過訓練後的模型中創造了多少價值。

我們很難估計出個別數據實際上創造了多少價值。但如果我們能夠創建聚合數據池,讓人們往裏面提供數據,這樣的衡量或許會更容易。

所以在過去兩年里,我們一直在嘗試這些方法,但還沒有實際部署任何東西。我們在技術方面進行了實驗,並獲取了一些進步,但這是一個非常困難的問題。

十二、若重回學生時代要給自己減壓,擴展知識面很重要

觀眾3:我的問題是相當簡單的。如果你現在又重回大學,回到達特茅斯,你想做點什麼,你不會再做什麼?你會主修什麼,或者你會更多地參與什麼事情嗎?

米拉·穆拉提:我認為我會學習相同的東西,但可能壓力會小一些。我想我仍然會學習數學,但也會學習更多的計算機科學課程。但我的壓力會小一些,以更有好奇心、更快樂的方式來學習。這肯定更有成效。

我還是學生的時候,總是有點壓力,擔心接下來會發生什麼。每個人都會告訴我,不要有壓力,但不知何故我總是很有壓力。當我和學長學姐交談時,他們總是說要享受學習,全身心投入,少一些壓力。

我認為在課程選擇上,最好要多學一些科目,對一切都有一點了解。我發現這在上學時和畢業後都是很好的事情。即便我現在在一家研究機構工作,我也一直學習,從不止步。對一切都有了解是一件很好的事情。

傑弗里·布萊克本:非常感謝你,因為我知道你的生活壓力很大。感謝你今天來到這裡,也感謝你為社會所做的非常重要和有價值的工作。感謝在達特茅斯的所有人。給學生們的建議剛好給這場對話收了個尾,我想再次感謝在場各位的到來,享受你們剩下的畢業周末。謝謝你們。

來源:達特茅斯學院