在快速發(fā)展的人工智能世界中,語音克隆技術(shù)的興起引發(fā)了立法者和安全專家的著迷和恐懼。騙子已經(jīng)在利用這項技術(shù)來欺騙毫無疑心的人,而像紐約市長埃里克·亞當斯這樣的公眾人物已經(jīng)發(fā)現(xiàn)了人工智能克隆自己聲音的創(chuàng)新用途。
負責拜登政府人工智能戰(zhàn)略的白宮副幕僚長布魯斯·里德(Bruce Reed)表達了對這項技術(shù)的擔憂,稱其“好得可怕”。據(jù)《商業(yè)內(nèi)幕》報道,他強調(diào)了潛在的社會影響,稱如果人們無法區(qū)分真實和虛假的聲音,他們可能很快就不愿意接電話了。安全軟件公司McAfee的一份報告稱,語音克隆技術(shù)只需輸入三到四秒鐘的音頻,就能重現(xiàn)任何人的聲音,準確率達到85%。
騙子們迅速利用語音克隆技術(shù)的進步,利用人工智能技術(shù)來加強他們的欺詐計劃。美國聯(lián)邦貿(mào)易委員會(FTC)報告了一些騙子利用語音克隆來欺騙家庭緊急騙局受害者的案例,他們制造了令人信服的家庭成員的復制品。一個令人震驚的案例涉及亞利桑那州的一位母親接到一個騙子的電話,這個騙子利用語音克隆技術(shù)冒充她被綁架的女兒,并模仿她女兒的聲音和語調(diào)。
除了語音克隆,深度造假技術(shù)的出現(xiàn)也引發(fā)了人們對偽造視頻的擔憂。女演員拉什米卡·曼丹娜(Rashmika Mandanna)剛剛成為一段深度偽造視頻的受害者,視頻中她進入了電梯。這段視頻獲得了數(shù)百萬的觀看量,引發(fā)了人們呼吁出臺新的法律和監(jiān)管措施,以打擊互聯(lián)網(wǎng)上虛假內(nèi)容的傳播。
這段視頻最初是在Instagram上分享的,主角是一位名叫扎拉·帕特爾(Zara Patel)的女子,她似乎沒有參與deepfake的創(chuàng)作。視頻背后的真實來源和動機仍然是個謎。這一事件并不是孤立的,因為近年來許多名人都被類似的假視頻盯上了。
寶萊塢演員Amitabh Bachchan強調(diào)了對深度造假采取法律行動的緊迫性,進一步強調(diào)了采取措施應對人工智能產(chǎn)生的欺騙日益增長的威脅的必要性。
隨著語音克隆和深度偽造技術(shù)的不斷發(fā)展,很明顯,這些發(fā)展對安全、隱私和廣泛欺騙的可能性產(chǎn)生了深遠的影響。立法者和監(jiān)管機構(gòu)面臨著適應這種新形勢的挑戰(zhàn),以保護個人免受騙子和虛假內(nèi)容帶來的威脅。