bokee.net

博客

正文 更多文章

性取向被識別后,AI倫理的邊界又在哪里?

   八卦,似乎一直是人類(lèi)茶余飯后一個(gè)永恒的話(huà)題,怎么辨別一個(gè)人與另一個(gè)人的關(guān)系?比如,是好朋友還是好基友?

 
 
  然而,你興許尚不知的是,這一私密的問(wèn)題,AI已經(jīng)能夠做到*識別了,這也著(zhù)實(shí)引起了一撥恐慌。
 
  就在此前,斯坦福大學(xué)兩名研究人員開(kāi)發(fā)了一個(gè)神經(jīng)網(wǎng)絡(luò ),可以通過(guò)研究一個(gè)面部圖像來(lái)檢測一個(gè)人的性取向。
 
  研究人員訓練了超過(guò)35,000張面部圖像的神經(jīng)網(wǎng)絡(luò ),在同性戀和異性戀之間平均分配。該算法的追蹤涉及了遺傳或*相關(guān)的特征。
 
  這項研究的關(guān)鍵在于影響性取向的產(chǎn)前*理論(PHT)。這個(gè)理論具體講的是,在子宮中,對性分化負責的主要是雄*,也是以后生活中同性戀取向的主要驅動(dòng)力。研究還指出,這些特定的雄*會(huì )在一定程度上影響面部的關(guān)鍵特征,這意味著(zhù)某些面部特征可能與性取向有關(guān)。
 
  研究發(fā)現,男女同性戀傾向于具有“非典型性別特征”,也就是說(shuō)男同性戀通常趨向于女性化,而女同性戀反之亦然。此外,研究人員發(fā)現男同性戀通常擁有比直男更窄的下巴、更長(cháng)的鼻子以及更大的前額,而女同性戀會(huì )擁有更大的下巴和更小的前額。
 
  隨機選擇一對圖像,一名同性戀男子和一名異性戀男子,機器挑選受試者的性取向準確率高達80%。而當與同一人的五張圖像同時(shí)呈現對比時(shí),*度高達91%。不過(guò),對于女性而言,預測準確率相對較低,一幅圖像準確率為71%,有5幅圖像,則上升至83%。
 
  這一切都讓人們感到了恐懼,AI識別人類(lèi)性取向,無(wú)疑是涉及到了隱私部分,這確實(shí)是讓人有所畏懼。而存儲在社交網(wǎng)絡(luò )和政府數據庫中的數十億公共數據將有可能在未獲得本人許可的情況下被用來(lái)進(jìn)行性取向識別,這也是有待商榷的。
 
  除了識別性取向,還可以辨別人物關(guān)系
 
  但是,這類(lèi)型的研究還在繼續。中山大學(xué)的一個(gè)團隊可以通過(guò)數據集來(lái)識別人物關(guān)系。
 
  而這一切,基于研究者們訓練了的圖推理模型(Graph Reasoning Model,GRM),由該模型結合門(mén)控圖神經(jīng)網(wǎng)絡(luò )(Gated Graph Neural Network,GGNN)對社會(huì )關(guān)系進(jìn)行處理。
 
  基于此,AI能夠識別圖片中三者之間的關(guān)系,根據圖上人物區域的特征來(lái)初始化關(guān)系節點(diǎn),然后用預先訓練的Faster-RCNN探測器搜索圖像中的語(yǔ)義對象,并提取其特征,初始化相應的對象節點(diǎn);通過(guò)圖傳播節點(diǎn)消息以充分探索人與上下文對象的交互,并采用圖注意機制自適應地選擇信息量*大的節點(diǎn),以通過(guò)測量每個(gè)對象節點(diǎn)的重要性來(lái)促進(jìn)識別。
 
  但是,在實(shí)際表現中,AI識別并未盡如人意。如警方在歐冠決賽采用AI面部識別匹配潛在犯罪圖像,其錯誤率高達92%,而在人物關(guān)系和性取向識別領(lǐng)域,其應用表現也并不*。
 
  性取向被識別后,AI倫理的邊界又在哪里?
 
  《紐約客》曾有這樣一期封面:機器人已經(jīng)成為了地球的主角,人類(lèi)只能蹲在地上接受機器人的施舍。每一個(gè)新技術(shù)都會(huì )引發(fā)大家的擔心,但以往更多是人的體力的延伸,而如若是腦力的延伸、人類(lèi)隱私的延伸,這種擔憂(yōu)將會(huì )更加嚴重。智能相對論分析師柯鳴認為,性取向識別前,AI還需要解決倫理上的幾大問(wèn)題。
 
  1、僅靠面部識別太草率
 
  《人格與社會(huì )心理學(xué)》雜志曾對斯坦福的這個(gè)研究,指出深層神經(jīng)網(wǎng)絡(luò )比人類(lèi)在通過(guò)圖像檢測性取向判斷中更準確,研究涉及建立一種計算機模型,以識別研究人員將其稱(chēng)作為同性戀者的“非典型”特征。
 
  在摘要中,研究人員寫(xiě)道,“我們認為人們的臉部特征包涵了更多人腦所無(wú)法判斷的性取向特征。根據一張圖片,系統(classifier)可以以81%的準確率區分男性同性戀者,74%的準確率區分女性同性戀者,這比人腦可以完成的判斷準確率都要高。”
 
  但是,在距離應用過(guò)程中,僅以面部構造識別似乎并沒(méi)有那么“靠譜”。技術(shù)無(wú)法識別人們的性取向,所謂的技術(shù)未來(lái)只是識別出網(wǎng)絡(luò )中同性戀者頭像存在相似的某種模式。
 
  而且,此研究存在的一個(gè)問(wèn)題在于,研究的機制是通過(guò)兩張圖片二選一其中*讓機器覺(jué)得“更可能是同性戀”的照片,這種對比判斷其實(shí)是從 50% 的隨機幾率開(kāi)始計算的,因此與單純對一張圖的分析有著(zhù)很大的區別。
 
  這其實(shí)就造成了一個(gè)問(wèn)題,在真正人類(lèi)識別的時(shí)候,其準確率有多少,而這種非此即彼的識別方式,其評判標準仍有許多地方需要商榷。
 
  2、算法歧視依然是個(gè)“大問(wèn)題”
 
  算法歧視,一直是人工智能應用過(guò)程中的一大問(wèn)題,以搜索為例,在谷歌上搜索“CEO”,搜索結果中沒(méi)有一個(gè)是女性,也沒(méi)有一個(gè)是亞洲人,這是一種潛在的偏見(jiàn)。
 
  顯然,人工智能也并不是真的純“人工”。 機器學(xué)習的方式和人類(lèi)學(xué)習一樣,從文化中提取并吸收社會(huì )結構的常態(tài),因此其也會(huì )再建、擴大并且延續我們人類(lèi)為它們設下的道路,而這些道路,一直都將反映現存的社會(huì )常態(tài)。
 
  而無(wú)論是根據面容來(lái)判斷一個(gè)人是否誠實(shí),或是判斷他的性取向,這些算法都是基于社會(huì )原有生物本質(zhì)主義(biological essentialism),這是一種深信人的性取向等本質(zhì)是根植于人身體的理論。畢竟,一個(gè)AI工具通過(guò)數據積累和算法模型可以通過(guò)照片判斷一個(gè)人的性取向,系統準確率高達91%,這其中所帶來(lái)的性取向偏見(jiàn)是不能低估的。
 
  今年年初,來(lái)自巴斯大學(xué)和普林斯頓大學(xué)的計算機科學(xué)家就曾用類(lèi)似IAT(內隱聯(lián)想測驗)的聯(lián)想類(lèi)測試來(lái)檢測算法的潛在傾向性,并發(fā)現即使算法也會(huì )對種族和性別帶有偏見(jiàn)。甚至,連Google 翻譯也難逃偏見(jiàn),算法“發(fā)現”并“學(xué)習”了社會(huì )約定俗成的偏見(jiàn)。當在特定語(yǔ)言環(huán)境中,一些原本是中性的名詞,如果上下文具有特定形容詞(中性),它會(huì )將中性詞轉而翻譯為“他”或“她”。
 
  如今的人工智能還基本局限于完成指定任務(wù),而有時(shí)候許多實(shí)際應用內容不是非此即彼的,在許多抉擇中,人類(lèi)選擇依然存在道德困境,如若將決定權交與算法,其存在的詬病之處更是不言而喻。
 
  3、數據使用,掌握“火候”是關(guān)鍵
 
  如果說(shuō)讓AI野蠻生長(cháng)是為了解決人們工作效率的問(wèn)題,那么當人工智能逐漸落地于各行業(yè)后,“體面”已經(jīng)逐漸取代效率,成為AI應用的關(guān)鍵詞。
 
  當然,如果企業(yè)能夠全方位的保護用戶(hù)隱私,這既有著(zhù)技術(shù)上難度,也缺乏一定商業(yè)驅動(dòng)力,因此,目前來(lái)看,如果平衡兩者之間的關(guān)系才是關(guān)鍵。
 
  實(shí)際上,在牽制巨頭破壞用戶(hù)隱私方面,歐洲國家已經(jīng)走得很遠,這體現在這些年他們與Facebook、Google等巨頭對抗的一個(gè)個(gè)集體訴訟案例中:
 
  2014年8月,Facebook在歐洲遭6萬(wàn)人起訴,一位奧地利隱私保護人士發(fā)起了一項針對Facebook歐洲子公司的大范圍集體訴訟,指控Facebook違背了歐洲數據保護法律,FB被質(zhì)疑參與了美國國家安全局的“棱鏡”項目,收集公共互聯(lián)網(wǎng)使用的個(gè)人數據。
 
  今年1月初,德國政府一家數據保護機構周三表示,該機構已針對Facebook采取法律行動(dòng),指控Facebook非法讀取并保存不使用該社交網(wǎng)站的用戶(hù)的個(gè)人信息。德國漢堡數據保護辦公室專(zhuān)員表示,由于Facebook在未經(jīng)許可的情況下收集并保存不使用該社交網(wǎng)站的用戶(hù)個(gè)人信息,這有可能導致Facebook被罰款數萬(wàn)歐元。
 
  顯然,目前用戶(hù)對于自身數據的保護意識正在不斷加強,其在不斷保護自身數據的同時(shí)也加強隱私防范。畢竟,AI識別性取向目前只是研究而沒(méi)有落地產(chǎn)品。
 
  而且,從網(wǎng)站上扒圖并不是什么技術(shù)活,讓機器做選擇題的概念,也像極了十多年前哈佛某個(gè)宅男做的校園選美網(wǎng)站。其中滋味,冷暖自知吧。
 
  智能相對論:深挖人工智能這口井,評出咸淡,講出黑白,道出深淺。重點(diǎn)關(guān)注領(lǐng)域:AI+醫療、機器人、智能駕駛、AI+硬件、物聯(lián)網(wǎng)、AI+金融、AI+安全、AR/VR、開(kāi)發(fā)者以及背后的芯片、算法、人機交互等。
分享到:

上一篇:人類(lèi)消耗地球資源速度越來(lái)越快 212

下一篇:性取向被識別后,AI倫理的邊界又在哪

青青草原综合久久大伊人_日日摸夜夜欧美一区二区_99热这里只有精品9988_亚洲综合色区另类第一会所