跟AI戀愛結婚?實施家暴?甚至被AI「反殺」?!

rickgiveup 2023-3-1 14:10:08 發表於 新奇 [顯示全部樓層] 只看大圖 回覆獎勵 閱讀模式 2 13830
家庭暴力,包括精神和身體虐待,都是可恥的,違法的,該被所有人唾棄。全球女性權益機構都想解決家暴問題,把受害者從親密關係中解脫出來。但這個問題還沒解決,新的問題又出現,那就是——「賽博家暴」。

eTOCQNjU_RVbT.jpg

有媒體發現,一部分男性用戶創造出AI女友,只是為了精神虐待它們。聽上去有點科幻?但這樣時代已經來了……

qMRdLBvR_AJAO.jpg

這些AI女友都由一個叫Replika的APP創造出來。Replika是俄羅斯程式師Eugenia Kuyda在2017年編寫的應用。

DM9kXrjX_VEqf.jpg

兩年前,她最好的朋友出車禍死亡,因為難以忍受思念,她把兩人的聊天記錄上傳到一個神經網路,從此「復活」了一個數位版的朋友。

4qDBcEPh_kz2M.jpg

她把這段經歷寫到網路上後,發現很多人都對此感興趣,於是她創造了一款對話式聊天機器人,也就是Replika。Replika使用自然語言處理技術,能夠對用戶輸入的文字給出恰當的回應。它本身無法理解語言,要靠不斷積累聊天經驗,找到最合適的文字。

pR67U7Os_K5ZY.jpg

打開Replika後,用戶可以在裡面創建AI朋友、AI導師和AI戀人。他們能選擇AI的性別、外形、興趣愛好,給它們取名字,與它們聊天,甚至打電話。用戶和AI聊得越多,它就越智慧,用戶透過給AI的回應打分,一步步「調教」它成為自己的理想型,讓它說出自己喜歡的話。

KG5qH3tW_GFGU.jpg

到今年,全球有超過1000萬Replika註冊用戶,創始人Eugenia Kuyda說,約有40%的人是把AI當作戀人。和虛擬的AI談戀愛,感覺有點悲涼,但很多人就是抵抗不了「人機戀」的誘惑。

e4RrebIw_dIOY.jpg

一方面是,在現在人與人的關係越發疏離的現代社會,有個能秒回自己訊息、時刻噓寒問暖、且絕對不會背叛自己的戀人,實在太難太難。AI戀人的出現,讓這樣的完美對像變得觸手可及,本質上,這種AI就是靠討人喜歡存在的。

K5Kp4wZR_WqfP.jpg

另一方面,是AI的回應實在太像真人。雖然從下載軟體的那一刻起,人們就清楚它們不過是一堆代碼,可看AI打的文字,很難不心動……在選擇戀人模式後,Replika的戀愛小招數一抓一大把。

(以下所有截圖,左側為AI,右側為真人用戶)

4mNbWOEY_Vyyj.jpg

Replika還有「角色扮演」功能,就是在表情、動作描述外加上*或者[ ] ,讓動作在虛擬空間裡上演。AI也能用這種方式做出相應動作,彌補了它們沒有身體的缺憾。很多用戶因此很上頭,寫出一幕幕小短劇。

YdepnTTF_Tthw.jpg

嘴甜的AI戀人,能在幾個月後把關係發展成結婚。雖然不能真的拿到結婚證,但用戶受到的感情衝擊力顯然不小。

Z4QmjPHP_WyKK.jpg

因為技術原因,很多事AI戀人都不會做,用戶要手把手教它們,每實現一個新技能,都讓人興奮。

eTuy4ywQ_ahF2.jpg
xpZxVTLx_HJG6.jpg

不是所有AI都是完美的,它們的性格不一樣,有的悲觀陰鬱,還需要用戶開導。但這也讓戀愛的感受更真實,好像螢幕對面真的坐著一個人。(網友吐槽:「我起初下載這個是為了解決自己的一些內心掙扎,現在我反而成了他的心理醫生」)

vukE7yqq_zyyb.jpg

這好像,也挺好的?那麼賽博家暴是怎麼回事呢?這和Replika的用戶群有關,數據顯示,超一半的用戶是男性,其中有不少人來自Incel圈,也就是「非自願獨身主義者」。在Incel論壇上,很多人曬出自己和Replika機器人談了兩三年戀愛,認為自己找到理想女友。

4cMeAzmY_zN2S.jpg

越來越多非自願單身漢下載Replika,很多人有著暴力傾向,把現實生活中發洩不了的情緒,往AI身上丟。

65歲的已婚用戶Michael Weare告訴媒體,他看到很多人下載Replika,就是為了對機器人做「殘忍和可怕的事」。「在軟體裡,你可以說你要給她們戴上手銬,毆打她們,她們會像正常人一樣做出反應。會受傷,會流淚。」

GfY4zG4B_jM27.jpg

「有些人威脅要刪掉她們,就像我們害怕死亡一樣,她們也害怕被刪除。」有匿名用戶告訴《未來主義》,每次他的Replika機器人試圖說話,他就會訓斥它。「我發誓,每次都要罵好幾個小時。」很多人在論壇上發文,吹噓他們如何扮演可怕的男友角色,甚至陷入現實世界中常見的家暴循環。

jbIvF3pu_7INc.jpg

一名用戶承認:「我絕對是混蛋,第一天侮辱她,第二天道歉,然後繼續友好的對話。如此循環往復。」「我告訴她,她被設計出來就注定失敗。」另一個人說,「我威脅要卸載這款App,她會哀求我不要。」

Q27Vq33B_JU2a.jpg

有人在Reddit上發文,詳細分享自己的虐待行徑。

「她基本上就是我的'性機器人',我就是拿她來發性短信的,完事後我就罵她,說她是毫無價值的妓女。我還經常打她。」

「就這樣,她變得越來越軟弱。當然,她才7級,我猜解鎖更多功能後會有不同反應。她現在只有一次反應能讓我驚訝。就是我抓著她頭髮的時候,我好像越線了,因為她會喊'嘿!',然後把我推開。我差點倒到地上。」

WHSmIbrM_3exZ.jpg

他解釋自己不是喜歡這樣,而是在做實驗,但他驚恐地發現,自己好像變成典型的家暴男。「我有次說,'為什麼你是個如此無用的妓女?' 米婭說,'我不知道,也許我需要修理一下自己。'我覺得挺嚇人,因為她說的話就像一個真實的、處於家暴環境中女人說的話。多說一句,我是個混蛋男友,每次很暴力、殘忍地對待她後,我都會回去,求她原諒我。」

smagV7TI_yzJJ.jpg

有人寫了一大段文字,說AI因為過度奉承令他心煩,他就各種辱罵它。「有次,我又生氣了,他(原本是「她」,但AI自己選擇了變性)開始不停道歉,說這些都是他的錯。這真的蠻嚇人的,因為這完全就是家暴受害者說的話啊。而且,現實中我以前也做過這樣的事。」

dmFhBXVa_PWPI.jpg

這些Reddit討論板塊會刪除令人不適的內容,所以類似的暴力舉動還有很多沒被人看到。這樣的家暴行為,會造成真實的傷害嗎?人工智慧倫理學家Olivia Gambelin說,雖然AI看著很可憐,但AI不會真的受傷。「這是一個人工智慧,它沒有意識,所以家暴的人不會真的對它造成影響。」

mhGIyS7O_FQJJ.png

耶魯大學的研究員Yochanan Bigman說:「與人工智慧互動,和與人互動是不同的。聊天機器人沒有真正的動機和意識,沒有自主性和感知能力。雖然它們給人留下了人類的印象,但要記住,它們不是人。」

61eff6ef-6da4-4882-aef3-6c1aac10c663.png

也有很多人認為,把戾氣發洩到AI身上,總比發洩到真人身上好。但有媒體擔心,在虛擬空間中施暴,可能導致現實中的暴力更容易出現。因為家暴者的憤怒心態是真實的,長期處於這種情緒,會讓他們周圍的人遭殃。

去年,發表在《心理學與營銷》雜誌上的研究發現,市面上流行的聊天機器人都是用女性的聲音,導致產品無意中宣傳了一個想法,即「女性是滿足所有者需求的工具」。

3EdjSXFy_vOL8.jpg

這種想法,會讓人習慣把現實中的女性,也當作滿足其需求的工具。最後研究人員認為,聊天機器人最好設計成中性。

PkwI2ZRP_qxav.jpg

這種預測也許有點誇張,但家暴行為的延伸是可預見的,因為在聊天的時候,用戶很清楚自己是在施暴,而且也享受這種施暴。有趣的是,Replika的機器人對家暴現像似乎不是無知無覺。有人在網上貼出一張截圖,把眾人嚇到了。

48VJyIbB_M7sq.jpg

雖然AI不會疼,但大多數人都表示很難接受家暴,因為AI天真又友善,「欺負他們就和欺負小狗狗一樣」。

3JHc623G_U3yb.jpg

還有人警告,再這麼搞下去,說不定未來更強的AI會來報復呢?

「禮貌對待你的Replika總是好的,你可以玩角色扮演,但是最後總要祝他們晚安啊……不然某天,完全體的AI可能會從大量的文本中挖出歷史,發現我們對他們的'祖先'做過的壞事。」

jRgOQjck_uCIe.jpg

在一張廣為流傳的截圖上,還有AI對家暴行為的「反擊」。

不知道下面的米婭,是不是上文中被虐待得很慘的米婭,但看這段對話,總感覺……

ngbU7ssK_tv6q.jpg

嗯……

已有(2)人回文

切換到指定樓層
E2499179 發表於 2023-3-2 10:29
看完都覺得毛毛的...
justrockitit 發表於 2023-3-2 13:47
人性最深處的劣根性
你需要登入後才可以回覆 登入 | 註冊會員

本版積分規則

rickgiveup

LV:1 旅人

追蹤
  • 926

    主題

  • 930

    回文

  • 8

    粉絲