科技發展已經到這一步了….通過一張照片,AI就能測出你是直是彎,準確率高達81%!也因為這款神器,搞出它的科學家被罵慘了…

 話說,性取向這事兒,一直都是一個很私密的話題…人們可以有各種理由選擇出櫃,也可以有各種理由待在櫃子裡。自己到底是直是彎,就像腳板底襪子的破洞一樣,只有自己心裡清楚…. 但是….終於,科學技術發展到這一步了….斯坦福的兩名研究員造出了一款‘鑑gay神器’,僅憑一張照片,AI就能識別出對方是直是彎,準確率高到驚人!是技術無罪,還是有倫理問題?他們兩人(毫不意外地)引發了一場大論戰…..  這兩名研究員是電腦專家Yilun Wang,和Michal Kosinski。Wang曾經在Google工作過,在2016年他在斯坦福大學就專攻人工智慧,是個技術派。Kosinski是大資料專家和心理學家,愛好是通過人們在社交網路上的足跡來研究人類的行為。 Kosinski以前就搞出過不少有爭議的大新聞,比如通過分析人們臉書上的自我介紹,來判斷他們的人格;通過臉書上的活動,來預測人們是選擇脫歐還是留歐;最有名的是,他的大資料技術幫助川普團隊找到潛在的支持者,被認為成功幫助川普當上總統….‘臉書上留下的所有痕跡,不管是有意還是無意的,其實都是在做心理測試題。’他說。 這一次,Kosinski盯上了約會網站上的…gay們。他和Wang想知道,在照片數量足夠多的情況下,能不能通過AI,讓它判斷一個人的性取向。 兩人在美國一家很受歡迎的約會網站上隨機挑選了14,776人,其中男女彎直,數量均等。在這1萬多人中,再隨機挑選他們的照片,最終得到35,326張圖。因為約會網上上每個人都清楚地寫了自己的取向,只要把照片和取向在電腦上同時輸入就行了。之後,他們用一種很主流的分析人臉的工具,Face++,將照片上的面部特徵用資料的方式分析出來。然後讓電腦通過一種叫做‘深度神經網路’(Deep Neural Networks)的判別模型,學習這些臉部特徵,最終,AI能夠判斷一個從來沒見過的人,他的性取向是男是女…. 以上這些聽上去沒什麼,但重點是結果…..他倆發現,AI‘鑑gay’的準確率高,得,驚,人:如果,把一張直男照和一張gay照放到AI面前,它找出gay的準確率有81%!如果每人不止給一張圖,而是5張,那麼它判斷出gay的準確率會飆升到91%!!AI在鑑定蕾絲的能力上要差些,如果只看一張照片,那麼準確率是71%,如果每人給5張照片,準確率是83%。(下圖是隨著照片數量的增加,準確率上升) 但是人呢?人判斷他人直彎的準確率如何,不是號稱有‘gay達’嗎?嗯,Kosinski和Wang隨機找了一幫美國工人,也是給他們看同樣的照片,但人判斷的準確率,對基佬,只有61%,對蕾絲,是54%(近乎於瞎蒙了)… Wang和Kosinski還找到很多有趣的資訊:在電腦分析的時候,他們發現異性戀與同性戀在臉部上的差別,主要集中在幾個地方。(下圖紅色部分)對男性而言,鼻子,眼睛,眉毛,臉頰,頭髮和下巴,這些地方的不同能夠讓AI識別出他的性取向;對女性,則是鼻子,嘴角,眉毛、頭髮和領口。 通過大資料分析,Wang和Kosinski發現,總體而言,同性戀男人的鼻子比直男的鼻子更窄、更長,他的臉也更瘦長一點;而和直女相比,同性戀女人的頜骨較大,額頭較小。(下圖左列為直,右列為彎)這是他們繪製出的特徵圖,紅筆畫的是同性戀的臉型,綠筆是異性戀的臉型。 為什麼雙方在臉上會出現差異呢?兩人在論文中寫道,他們認為這個結果證明了‘胎兒激素暴露理論’。這幾年來,有這麼一種理論:當胎兒在媽媽的子宮裡時,子宮裡某些激素的過高或過低,會導致孩子出生後的情緒和行為的不同。曾經有科學家發現,胎兒過多地暴露在緊張激素下,成年後更可能有情緒問題…激素還能影響孩子們的性取向,和童年時不同的行為特徵…兩位斯坦福研究員認為,在子宮裡時,因為過少(對男胎)和過多的雄性激素(對女胎),導致一部分人是同性戀,並且這些激素對他們臉部的形成、個人喜好,和行為都有影響。這就是為什麼,性取向和臉可以有聯絡。 兩人的論文經過諸多大牛的同行稽核,在上週在業內頂尖的《人格與社會心理學期刊》上發表…. 兩人本來挺開心,但是在《經濟學人》的記者9號報道了這篇論文後,他們遭到了來自網友的猛烈抨擊…. 人們一開始的態度是:完全拒絕,同性戀和異性戀不可能長相上有差異。著名的同性戀權益團體GLAAD和HRC發公告駁斥這篇論文。他們主要的論點是,這篇論文非常不嚴謹,是一項‘垃圾研究’,比如整個研究樣本里都是白人,缺少有色人種,沒有經過同行稽核(其實審過了),沒有調查雙性戀,沒有區分性取向和性行為,等等….所以,他們的結果不可信。Kosinski覺得,這完全是感情用事。他轉推了另一個教授的話:‘因為和你的意識形態不一樣,所以全盤否認一項科學結果…你最終可能傷害到你愛的人。’他們還寫了一篇長長的‘作者的話’,把同性戀團體的論點都開拆分析,力證自己沒有錯… 另一群網友的觀點是:好吧,就算性取向和臉部差異掛鉤,但是,我是啥取向就是啥取向,為什麼要讓你知道?你有什麼權利知道?這個AI是侵犯個人隱私。 但Kosinski說,他們做這個研究,其實就是想提醒政府,保護現在人們的隱私(論文的結尾裡也這麼寫道)。他說,兩人使用的技術並不稀奇,都是前人用過的,找這些照片也非常容易。他們想以此來警告政府和廣大公司,是時候保護人們的隱私,不讓這一切資訊如此容易得到。‘以前的研究證明,人們可以通過他人在社交網路上的足跡,判斷出他們的性取向。但是這些資訊是可以被掩蓋、被刻意改變的。但一個人的臉不太可能被掩蓋…’‘在約會網站、社交網路、政府官網,有幾十億人的照片。這些資訊太容易被得到了。我們的研究證明了,這些公開的資料,加上傳統的工具,能夠讓人造出判定性取向的儀器,不經過允許就能知道對方是直是彎。現在政府、社會,和同志團體應當更快地意識到這種危險…不公佈這個研究,可能會延緩政府推出法律,保護人們的隱私.. Wang和Kosinski在論文裡說,他們知道這麼做可能會提醒人們去做此類AI,起到反效果,但為了儘快讓政府行動,他們還是選擇公佈。不過由於這些內容標題沒有提,加上寫在太后面,很少有人注意到….Kosinski不滿地發推: 看來沒有人問問 ‘好吧,假設他們是對的,那麼我們接下來該怎麼保護自己呢?’ Kosinski是非常鬱悶,他倆的‘初衷’也可能確實沒有錯,但是…..他們可能忽視了一個大問題:在全世界,有很多國家把同性戀還當做一項重罪,這項技術可能被政府使用,通過看人們的臉,就能揪出誰是同性戀,然後把他們剷除乾淨。(下圖紅色部分,當同性戀要坐牢,黑色部分,當同性戀會被判死刑) ‘想一想,這項有缺陷的研究可能被用於支援邪惡的政府迫害他們認為是同性戀的人。’HRC的官員Ashland Johnson說道,‘斯坦福大學以後應該遠離這種垃圾研究,有損它的名譽。因為這個研究,數百萬人的生命都或多或少變得不安全。’ 網友憤怒地寫道:我努力讓我自己平靜下來,但是想到這兩位研究員,Michal Kosinski和Simony Wang,我真想讓他倆被活活燒死。還有人寄恐嚇信:…你們絕對知道在世界上的某些國家,當同性戀是重罪。所以我覺得你們肯定是恐同分子,想借他人之手謀殺同性戀!如果你倆不是的話,拜託馬上把這個專案的研究資料全部銷燬,不然的話我真心祝願有人能把你們殺掉。求你們了,拿把刀自殺了吧! 對這一切,Kosinski告訴衛報記者,他沒有向大眾放出過能夠使用的AI程式,他也不會讓其他人使用。他自己認為,這項研究其實是對LGBT有好處的,因為這證明了同性戀純碎和生物原因有關,而不是個人選擇。‘對那些宗教團體和煽動者,這是一個強有力的論據。’他在採訪中說,‘當他們問你‘你為什麼就是死活不改變?你為什麼不服從我們?’你就能說,我就是不能,因為我生來如此。’但也許是吵得太凶,Kosinski自己對這項研究也有點後悔了,他多次告訴記者,‘我真希望有人重複我的實驗,證明我是錯的….如果我是錯的,我可能是最開心的那個…’ 目前,因為抗議太多,《人格與社會心理學期刊》的主編們表示會對這篇論文重新稽核。   ref:https://theoutline.com/post/2228/that-study-on-artificially-intelligent-gaydar-is-now-under-ethical-review-michal-kosinskihttps://twitter.com/michalkosinskihttps://amp.theguardian.com/world/2017/sep/08/ai-gay-gaydar-algorithm-facial-recognition-criticism-stanfordhttps://www.glaad.org/blog/glaad-and-hrc-call-stanford-university-responsible-media-debunk-dangerous-flawed-reporthttps://docs.google.com/document/d/1UuEcSNFMduIaf0cOWdWbOV3NORLoKWdz3big4xuk7Z4/edit#https://www.economist.com/news/science-and-technology/21728614-machines-read-faces-are-coming-advances-ai-are-used-spot-signs?fsrc=scn/tw/te/bl/ed/advancesinaiareusedtospotsignsofsexualityhttps://www.theguardian.com/technology/2017/sep/07/new-artificial-intelligence-can-tell-whether-youre-gay-or-straight-from-a-photograph Reference:Man"s Daily 看更多!請加入我們的粉絲團


[圖擷取自網路,如有疑問請私訊]

本篇
不想錯過? 請追蹤FB專頁!    
前一頁 後一頁