來源:清元宇宙
還記得5月OpenAI在國會山聽證會上的自信、坦誠、游刃有余的問答嗎?
那時的Sam Altman可謂意氣風發(fā),在耐心、友好的國會議員面前,就AI立法、大模型安全性問題侃侃而談,甚至還自己提出了AI監(jiān)管方針,“懇求”國會議員監(jiān)管。
在Sam Altman精湛的說辭和誠懇的態(tài)度下,本該針鋒相對、充滿緊張氛圍的聽證會,卻成了雙向奔赴的現(xiàn)場,“曖昧之情”可謂羨煞旁人。
既然話都說到這份上了,那AI監(jiān)管自然得抓緊提上日程!
于是,在民眾舉報和官方調(diào)查的有力結(jié)合下,一條大魚終于“落網(wǎng)了”。
7月13日,美國聯(lián)邦貿(mào)易委員會(FTC)對OpenAI正式發(fā)起調(diào)查。調(diào)查內(nèi)容集中在兩方面,即ChatGPT是否通過發(fā)布虛假信息損害了人們的利益,以及OpenAI是否存在“不公平或欺騙性”的隱私和數(shù)據(jù)安全行為。
事實上,這不是OpenAI首次被質(zhì)疑數(shù)據(jù)隱私問題。
6月28號,位于北加州的Clarkson律所對OpenAI及其合作伙伴微軟提起了集體訴訟。理由是OpenAI在訓(xùn)練大模型時抓取的數(shù)據(jù),嚴重侵犯了16名原告的著作權(quán)和隱私。
6月底,作家阿瓦德(Mona Awad)與特蘭布拉(Paul Trembla)也向舊金山聯(lián)邦法院提起訴訟,稱ChatGPT未經(jīng)他們同意,擅自調(diào)用他們的小說來進行訓(xùn)練。
監(jiān)管看似是對AI企業(yè)的debuff(負效應(yīng)),但在監(jiān)管成為必然的趨勢之下,先一步成為規(guī)則的制定者,則可以獲得相對的競爭優(yōu)勢。這是OpenAI高呼“安全”“合法”的原因。
面對怒氣沖沖的被侵權(quán)者和來勢洶洶的監(jiān)管部門,OpenAI的CEO Sam Altman雖然語氣依舊克制,就侵權(quán)、起訴、調(diào)查等問題發(fā)表自己的看法,但從其推特的高頻回復(fù)來看,或許著實有點慌了。
面對質(zhì)疑,Sam Altman連發(fā)了三條推特:
他對FTC的調(diào)查和未能建立起信任表示遺憾,并強調(diào)自己一直重視技術(shù)安全問題,相信OpenAI的一切行為是符合法律的。
他繼續(xù)強調(diào)GPT-4的安全性,稱OpenAI在多年的安全研究基礎(chǔ)上構(gòu)建了GPT-4,并在完成初始訓(xùn)練后花費了6個多月的時間使其更安全、更符合要求,然后才將其發(fā)布。
Altman表示其對技術(shù)的局限性一直保持透明,并稱OpenAI沒有動力去追求無限的回報,因為他們的盈利結(jié)構(gòu)是有限的,其暗指將社會道德置于盈利之上。
總結(jié)一下就是,我們一直試圖不被發(fā)現(xiàn),但很遺憾還是暴露了。
事實上,此次被調(diào)查的問題,早在5月的聽證會上,就已經(jīng)埋下了伏筆。
雖然在國會山上的答辯中,Sam Altman的表現(xiàn)可謂異常出彩,但是,并非全無漏洞。
最近的一次,F(xiàn)TC對于OpenAI的調(diào)查更為詳細,其列舉了一份包含49個大問題,200多個小問題的清單,要求OpenAI就清單上的所有問題進行詳細的回答和陳述。問題涉及模型開發(fā)與訓(xùn)練、風險評估與應(yīng)對、隱私和Prompt風險及措施和API集成及插件等諸多方面。
答完這些問題,原本不Open的OpenAI想必不得不Open一回了。
在OpenAI和微軟兩位同行應(yīng)付接二連三的侵權(quán)訴訟,忙得焦頭爛額之際,谷歌敏銳地嗅到了危機,于是選擇先行堵上這一漏洞。
并且,谷歌正在與美國、英國和歐洲的新聞機構(gòu)進行溝通,表示愿意付費購買新聞內(nèi)容。同時他們的AI工具Bard也正在接受“公開可獲得的信息”的培訓(xùn),這可能包括需要付費的網(wǎng)站。若付費購買新聞信息的協(xié)議達成,谷歌在信息版權(quán)問題上將邁出值得借鑒的一步,而谷歌的數(shù)據(jù)庫也將獲得更為豐富的數(shù)據(jù)來源。
但是,新政策對書籍著作、藝術(shù)繪畫等受版權(quán)保護的內(nèi)容作品,如何防止其進入訓(xùn)練數(shù)據(jù)庫的具體做法并未明確。
從“OpenAI第一案”,到AI公司現(xiàn)階段普遍面臨的數(shù)據(jù)隱私問題,AI監(jiān)管的下一步方向已經(jīng)較為明確,那便是社交平臺上發(fā)布的“私人數(shù)據(jù)”和用于訓(xùn)練的“公共數(shù)據(jù)”之間的劃分準則。
目前,美國對于大模型訓(xùn)練數(shù)據(jù)的立法還沒有通過,法官判決很大程度上是參考已經(jīng)有的隱私權(quán)和著作權(quán)的案例。但隨著AI與人類社會之間不斷融合、浸潤,所謂“具身智能”的未來不斷臨近,私人數(shù)據(jù)的保護邊界、使用邊界必須要逐步明確。
然而,要想?yún)^(qū)分數(shù)據(jù)的公私邊界,在立法層面上來看,也并非易事。
作為生產(chǎn)信息數(shù)據(jù)量最大的社交媒體,平臺本身的公共性質(zhì)和用戶活動的私人性質(zhì),無疑構(gòu)成了一對復(fù)雜的矛盾,用戶與平臺對于數(shù)據(jù)的保護和使用邊界的界定,當中涉及諸多復(fù)雜的主客觀因素,使得要想明確地界定公私界限,極為困難。
不過,縱然法律上的尚未探明的灰色地帶成了AI巨頭們時不時攫取利益的來源,但是,在沒有明確法律規(guī)則的背景之下,類似的隱私侵犯案件的審判中,和解往往是普遍的處理方式。而在和解中,OpenAI等AI公司并不一定會具有優(yōu)勢。
因此,頻繁增多的隱私侵犯案件,勢必會倒逼政府及法律部門在AI監(jiān)管上作出重要舉措,也會迫使AI科技公司收斂自己的權(quán)力,更新完善既有的信息政策。
本文鏈接:http://m.yifxia.cn/showinfo-40-2-0.htmlAI界地震!美國對OpenAI展開調(diào)查!監(jiān)管風暴來襲!
聲明:本網(wǎng)頁內(nèi)容旨在傳播知識,若有侵權(quán)等問題請及時與本網(wǎng)聯(lián)系,我們將在第一時間刪除處理。郵件:2376512515@qq.com
上一篇: 元宇宙終究沒火過兩年