更加離譜的是,有的網(wǎng)友發(fā)現(xiàn),或許是因為圖片識別的問題,AI會強(qiáng)行給黑人“逆進(jìn)化”成大猩猩的模樣。
而這種“區(qū)別對待”,也不止存在于膚色的差異中。即便是同一張照片上的兩位黑人,AI也會生成不同的物種。
在各種各樣關(guān)于黑人的離譜圖片在網(wǎng)上開始流行的時候,這些有些冒犯的圖片,已經(jīng)開始引來一些深膚色用戶的指責(zé)了。
老實說,相比于“有意冒犯”,我更愿意相信是因為AI技術(shù)力有限,導(dǎo)致無意間發(fā)生這樣的情況。
像是2015年的時候,AI也曾犯過這樣的錯誤。谷歌的人臉識別AI曾誤將一對黑人夫婦識別并標(biāo)記成為“大猩猩”,這讓這對黑人夫婦非常生氣。對此谷歌表示了深深歉意,并保證之后類似的事情不再會發(fā)生。
對于“異次元的我”這款A(yù)I軟件來說,識別不出黑人的原因我想只是因為它的訓(xùn)練庫比較貧瘠。只要你投入的玩上幾個小時這款軟件,你會發(fā)現(xiàn)它的畫風(fēng)非常的雷同。
AI生成的富江,少了些特色
由于該算法所訓(xùn)練的數(shù)據(jù)集的性質(zhì),它經(jīng)常將這些動漫風(fēng)格的面部特征、膚色和配飾“過擬合”到提交的圖像中?;蛟S是因為數(shù)據(jù)庫中黑人二次元形象比例不高的原因,也間接導(dǎo)致了AI不會畫黑皮膚的角色。
而另一方面,基于它“簡易版”AI繪圖的定位,在日常使用的時候,也經(jīng)常會出現(xiàn)“人變成動物”或是“喜事變喪事”這種“地獄”的情況發(fā)生。
不過大多數(shù)人都只是抱著“看樂子”的心態(tài)來看待的,對于是否有冒犯到人,我想很少會有人去責(zé)怪無法思考的AI吧。
可以預(yù)見的是,伴隨著AI的大火,當(dāng)“簡易版”的AI繪圖逐漸成為網(wǎng)友們的日常工具,那么這其中離譜的圖片還會涌現(xiàn)出更多。
如果你看著這些“地獄笑話”般的圖片忍不住噴飯的話,那么請別忘了敲一敲自己手機(jī)里的電子木魚吧。
到自助洗車店,品百態(tài)人生。
GHS還是第一生產(chǎn)力
網(wǎng)絡(luò)炫富的上半場已經(jīng)過去,現(xiàn)在到來的是賽博哭窮下一階段。