據(jù)Theregister報(bào)道,加拿大隱私專(zhuān)員辦公室正調(diào)查OpenAI的生成式聊天應(yīng)用ChatGPT,因?yàn)樵摫O(jiān)督機(jī)構(gòu)收到了一份投訴,指控ChatGPT在未經(jīng)同意的情況下收集、使用和披露個(gè)人信息。
加拿大隱私專(zhuān)員PhilippeDufresne表示:“人工智能技術(shù)及其對(duì)隱私的影響是我辦公室的重點(diǎn)關(guān)注領(lǐng)域。我們需要跟上并領(lǐng)先于快速發(fā)展的技術(shù)進(jìn)步,這也是我作為專(zhuān)員的主要關(guān)注點(diǎn)之一。”
ChatGPT是由GPT-3.5大型語(yǔ)言模型驅(qū)動(dòng)的,它是通過(guò)從互聯(lián)網(wǎng)上抓取大量文本進(jìn)行訓(xùn)練的。在這些文本中,很可能包含了一些個(gè)人信息,有關(guān)部門(mén)擔(dān)心這些信息可能被查詢?cè)摍C(jī)器人的人獲取。OpenAI已經(jīng)為其舊版的GPT-3模型建立了一個(gè)過(guò)濾器,以阻止其輸出人們的電話號(hào)碼等信息。盡管這些個(gè)人信息可能已經(jīng)在互聯(lián)網(wǎng)上公開(kāi)發(fā)布過(guò),才能被該機(jī)器人在訓(xùn)練過(guò)程中收集,但ChatGPT可能會(huì)被用作一種工具,幫助人們更容易地找到這些信息。
除此之外,ChatGPT還存在其他更大的隱私問(wèn)題——人們?cè)谑褂迷摍C(jī)器人時(shí)可能會(huì)交出私密、敏感的信息,而OpenAI如何存儲(chǔ)或使用這些數(shù)據(jù)并不清楚。一些公司如亞馬遜已經(jīng)警告員工不要與ChatGPT分享機(jī)密信息,比如專(zhuān)有代碼。
加拿大隱私專(zhuān)員辦公室表示,由于這是一項(xiàng)正在進(jìn)行中的調(diào)查,目前沒(méi)有其他細(xì)節(jié)可以提供。
據(jù)悉,意大利是第一個(gè)宣布對(duì)ChatGPT進(jìn)行調(diào)查的國(guó)家,以確定該軟件是否非法收集其公民的數(shù)據(jù),并且該技術(shù)是否會(huì)對(duì)13歲以下的未成年人造成傷害。該國(guó)保護(hù)個(gè)人數(shù)據(jù)委員會(huì)甚至?xí)簳r(shí)封禁了ChatGPT。與此同時(shí),其他國(guó)家包括德國(guó)、法國(guó)和愛(ài)爾蘭也正在監(jiān)測(cè)這一情況,以決定ChatGPT是否違反了GDPR規(guī)則。
到自助洗車(chē)店,品百態(tài)人生。
GHS還是第一生產(chǎn)力
網(wǎng)絡(luò)炫富的上半場(chǎng)已經(jīng)過(guò)去,現(xiàn)在到來(lái)的是賽博哭窮下一階段。