訊息原文

1 人回報1 年前
各位,從刷到這條視頻開始,請注意,千萬別亂接電話,亂接視頻也千萬不要亂在網上發自拍,這是一個史上最恐怖的新型騙局。
以往騙子騙到你,可能是因為你傻,但現在只需要你接通電話三秒鐘,就只要這三秒鐘,騙子都不需要說一句話,就能讓你重責傾家蕩產。
如今這個騙局已經在全國肆虐,視頻不長,請一定要認真看完。
這段時間發生了一件離奇的詐騙事件,福建的郭先生接到了好友的視頻通話,開視頻的是本人,聲音也沒問題,郭先生沒多想,幫了這位朋友提出的忙。
可當轉賬完成後,郭先生發過去一句,事情都辦妥了,他的好友去回覆了一個問號,注意了,郭先生的好友確實不知情。
好,那問題出在了哪裡,明明開了視頻,人是這個人,聲音是這個聲音,難道這世界上還有兩個一模一樣的人嗎?
來看一下這條視頻,右上角的畫面裡是本人,而左下角畫面裡出現的,則是用AI技術生成的假人,這個技術恐怖在什麼地方呢?
它可以幾乎完美的複製一個一模一樣的你,樣子一樣,聲音也一樣,即使你遮擋臉部,畫面也沒有任何破綻。
有官方號說,AI假人一般不會眨眼,但請相信我,千萬別拿這個當標準去判斷,因為不會眨眼的問題,詐騙犯馬上就會解決。
也就是說各位,以前我們講眼見為真,耳聽為實,但從今天開始你再也無法確定了。
想象一下,今天你的母親突然對你發起了視頻通話,淚流雨下的說,孩子,你爸出車禍了,現在在醫院需要十萬塊錢,你趕緊轉賬過來吧。
即使樣子一樣,聲音一樣,但是這根本不是你的母親,而是一位在背後操控的詐騙犯,這不是我危言聳聽,而是正在發生的恐怖騙局。
就在今年年初,微軟推出的語音模型,只需要三秒就能複製任何人的聲音,詐騙犯鎖定目標後,只需要給你多打幾通騷擾電話,
而你只要接上電話說上那麼一兩句,他們就可以完美複製你的聲音,然後你的家人就會突然接到你的電話。
為什麼號碼不一樣,隨便編個自己被搶劫了,或者手機掉落在旅遊就可以了。
關鍵是,你的家人確認這聲音就是你,此時只要再編造一些緊急情況,又騙你最親近的人上當輕而易舉,獲取你的聲音現在只需要三秒,而獲取你的樣貌更加簡單。
你在網上朋友圈公開的視頻照片都是騙子現成的素材,甚至網路上早已有人專門接單,只需要一張乾淨的正面照,
利用AI技術就可以生成一個眼睛嘴巴都會動,口型也對得上如假包換的你。
這樣一來,詐騙犯甚至根本不需要盜取你的某信,因為只要臉一樣,聲音一樣,你說你今天有個什麼意外情況,
因為我的同學朋友的某信有什麼不合理,有什麼破綻嗎?
而且,獲取你的照片之後,詐騙犯也不一定非得詐騙你的家人,他們完全可以用AI換臉技術把你和大尺度視頻合成在一起,
要麼你答應給錢,否則這些明明就是你的不雅視頻,就會被發給你身邊的親朋好友,到時候他是百口莫辯了。
以上還只是AI詐騙套路的冰山一角,AI時代來了,這未必是人類的話時代,卻一定是詐騙犯的話時代。
從今天開始,一定要保護好你的個人信息,而將來,如果你也遇到你的家人,遇到緊急情況,向你電話或視頻求助,應該怎麼辦呢?
相信我,不要聽那些所謂的畫面鑑別方法,所有破綻一定會逐一被詐騙犯改進的。
這種情況下,假設你越篤定不眨眼就是假,反過來說就是你越相信眨眼就一定真,只要詐騙犯一改進你就更容易掉進陷阱。
在我看來,絕對有效的鑑別方法只有一個,為一個只有你們知道的秘密,答對的是真,答錯的是假,我說清楚了嗎?

現有回應

目前尚無回應

增加新回應

  • 撰寫回應
  • 使用相關回應 11
  • 搜尋

你可能也會對這些類似文章有興趣

  • 喂? 嘿? 對,請問你哪裡找? 你是不是接過陌生電話被推銷產品或是像這種? 喂? 電話接通完全沒聲音這可要小心了 恐怕是有人要趁機竊取你的聲音 可以立刻AI複製跟你一模一樣 先聽一下我剛才克隆了姚蜜的聲音 太可怕了 現在任何人都可以克隆任何人的聲音 別以為不可能 詐騙集團利用AI軟體 透過打騷擾電話複製聲音再拿去詐騙親友 過程可能只需要短短五秒鐘 詐騙犯只需要多給你打幾個騷擾電話 他們就可以生成你的專屬語音包 連足球劇情C羅都開口說中文 中英文轉換 這也是AI變造結果 AI還原音色語調連換氣都能學 幾乎真假難辨 尤其是像一些贅詞啊 一些那種音調啊 那其實很容易學的 大概七八句十句大概就可以學起來 只要騷擾電話防不勝防 避免聲音變詐騙集團蒐集 陌生來電別接 奇怪問卷別做 接通電話先別說話 但可以完全預防嗎 比如說如果有些陌生電話 可能就不跟他多講 直接把它掛掉 真的聽起來很像的 那可能要再次確認 AI科技每天都在進步 短短五秒騷擾電話 就可能偷走聲音去詐騙 讓人防不勝防 最保險的就是再打電話確認 以免下個受害的就是你 記者 葉宗盈 王書宏 高雄報導
    5 人回報1 則回應6 個月前
  • 喂? 嘿? 對,請問你哪裡是啊? 你是不是接過陌生電話被推銷產品或是像這種 喂? 電話接通完全沒聲音這可要小心了 恐怕是有人要趁機竊取你的聲音 可以立刻AI複製跟你一模一樣 先聽一下我剛才克隆了姚蜜的聲音 太可怕了 現在任何人都可以克隆任何人的聲音 別以為不可能 詐騙集團利用AI軟體 透過打騷擾電話複製聲音再拿去詐騙親友 過程可能只需要短短五秒鐘 詐騙犯只需要多給你打幾個騷擾電話 他們就可以生成你的專屬語音包 連足球劇情C羅都開口說中文 中英文轉換這也是AI變造結果 AI還原音色語調連換氣都能學 幾乎真假難辨 尤其是像一些贅詞啊 一些那種音調啊 那其實很容易學的 大概七八句十句大概就可以學起來 只要騷擾電話防不勝防 避免聲音被詐騙集團蒐集 陌生來電別接 奇怪問卷別做 接通電話先別說話 但可以完全預防嗎 比如說如果有些陌生電話 可能就跟他或跟他多講 直接把他掛掉 真的聽起來很像的 那可能要再次確認 AI科技每天都在進步 短短五秒騷擾電話 就可能偷走聲音去詐騙 讓人防不勝防 最保險的就是 再打電話確認 以免下個受害的就是你 記者 葉宗盈 王書宏 高雄報導 我是徐國豪 在中視新聞首次坐上主播台 體會到播報新聞所需要的穩健台風 以及掌握突發即時新聞的隨機應變 為觀眾播報最即時的新聞 就是展現專業的時刻 更多新聞請鎖定中視新聞YouTube頻道 記得按讚 訂閱 分享 並開啟小鈴鐺喔
    16 人回報1 則回應5 個月前
  • 邀請您加好友,再請您幫我點開加好友哦。 聽到這樣的電話內容,千萬別相信這是警方首次查獲詐騙集團結合AI語音《機器人》犯案。 AI語音《機器人》先撥打你的電話,然後跟你對話。 對話之後,它是認為看你的反應,又適合的答案給你設計一套劇本的對話表。 AI語音《機器人》依回應內容、語音情緒,判定對方是否有興趣,再發送簡訊,以提高詐騙效率。 有40名被害人報案,累計財損達1億元。 幾個月期間,我們就發現這家人頭設立的一個投資公司,它已經發了6000多萬的簡訊。 我們在跟電信公司這邊合作的部分就是,發現這家公司跟電信公司是申請了155個門號。 這155個門號我們去清查之後,也是覺得可疑的地方是說,這家公司是沒有員工的。 隨著AI技術進步,真假難辨,在美國近期也開始出現越來越多AI語音詐騙案例。 我看到她的孫子的名字在電話號碼上,她聽到她說的一聲聲音就像他一樣,說他遇到一場意外。 他就說,奶奶,我破了我的鼻子。 我女兒的聲音在哭泣,我叫媽媽,幫幫我! 這位媽媽差點被AI女兒聲音求助,騙走100萬美元。 受害人紛紛表示,很難描述電話中的聲音有多麼真實。 因為現在的AI聲音複製技術,讓聲音可以變得非常像。 騙子只需要一點材料,可能只是一個無辜的影片,你發到TikTok或Instagram,使用AI,你的聲音可以被複製。 AI語音生成軟體可以分析年齡、性別和口音的不同,並搜尋龐大的聲音資料庫,找到相似的聲音,然後重新生成。 通常從YouTube、TikTok、Instagram等地方就可以獲取音訊樣本。 我站在你面前,不是作為專家,而是作為關心的民族。 一家AI公司就另有音訊工具,將好萊塢巨星雷奧納多在一場氣候高峰會上的演說,仿製其他名人的聲音,重新配音。 我經常用幻想的角色來解決幻想的問題。 我相信人類在同樣的方式看著氣候改變,就像是幻想。 聽起來就像鋼鐵人小羅伯道尼、微軟創辦人比爾蓋茲幫李奧納多來配音。 在技術突飛猛進下,以前複製一個人的聲音,需要從被複製者身上獲取大量樣本,現在只需要幾秒鐘就可以生成出一個接近你的聲音。 甚至現在最新的技術,只要我的聲音五秒鐘,就可以讓一個程式碼學我的聲音來錄音、來錄影,來做各式各樣的回應。 要讓AI孫燕姿可以像孫燕姿一樣唱歌的做法也非常簡單,就是我必須讓電腦,必須讓AI去聽很多孫燕姿唱歌的紀錄、音樂還有樂曲, 讓電腦可以學會她的意洋頓挫跟她的發音呼氣的方式,那麼AI就可以學會用孫燕姿的方式來唱歌。 在美國這類的語音複製服務,每個月只需要五美元,任何人都可以使用,也讓過去被認為安全的聲紋系統存在明顯漏洞。 為報澳洲記者,就用AI模擬自己的聲音,順利進入了澳洲社福中心和澳洲稅務局,使用的聲紋安全系統。 還有一個可能的情況是,未來一代AI代理人應用越來越廣,該如何辨別真假又是另一個課題。 未來很可能你在網路上面聊天,或者你在網路上面聽演講,或者是聽一場課堂,你其實大概都沒有辦法保證這個人到底是不是真的人,還是他是一個AI。 我認為這其實還是會為未來帶來很多的風險,像我自己最近都開始跟我的家人約定好, 如果你接到一個聽起來像我,講話的方式也像我,內容也像我的人,不要輕易相信他就是我,我們會約定好一個家族密語,確認他能夠回答這個問題的答案,他才是我。
    9 人回報1 則回應1 年前
  • 各位,如果你們的手機響了,你看到自己的樣子出現在手機屏幕上,好像相機拍照那樣,千萬不要理它,不要對著屏幕,也不要說話,直到它自己停止。我老婆的手機昨天和今天都出現過一次這種情況,我剛剛接到一次,看到來電號碼是852開頭的,並且看到自己的樣子出現在畫面上。昨天我去蘋果店詢問過,他們說千萬不要理會它,讓它自己停機。原來你一按接聽電話,它就拍下你的樣子(獲取你的Face ID臉部識別),如果你對它說話,它就能錄下你的聲音,然後封鎖你的手機,使用你的手機內容,通過AI技術打電話給你的朋友,並與他們進行視像通話。你的朋友看到真的是你的樣子,就可能中招了。 這是一個新的騙術,大家要注意!
    893 人回報1 則回應21 天前
  • 接電話千萬別先開口!只需3秒 就可能成AI語音詐騙目標 2023-3-22世界日報新聞 如果你接聽一個陌生號碼的電話,一定要讓對方先說。電話另一端的人可能會錄下你的聲音片段,然後用它來模仿你。 這是美國聯邦貿易委員會(Federal Trade Commission)給大家的建議,該委員會警告消費者要當心騙子,這些騙子會偷偷錄下人們的聲音,然後偽裝成受害者的聲音,向受害者的親屬要錢。 在ChatGPT和微軟Vall-E等人工智能工具興起之際,美國聯邦貿易委員會描述了這樣一種情況。Vall-E是微軟今年1月展示的一種將文本轉換為語音的工具。Vall-E目前還沒有向公眾開放,但其他公司,如alike AI和ElevenLabs,已經推出了類似的工具。使用任何人的聲音樣本,這項技術可以準確地將書面句子轉換成令人信服的音頻。 聯邦貿易委員會消費者教育專家阿爾瓦羅·普伊格(Alvaro Puig)在該機構的網站上寫道:「你接到一個電話。電話里有人驚慌失措,說是你的孫子。他說他撞壞了車,進了監獄,有大麻煩了。需要你寄錢來幫忙。你深吸一口氣,然後思考可能是詐騙,但這聽起來就像他。」 只需3秒鐘 專家稱,犯罪分子正在利用廣泛使用的「語音克隆」工具來欺騙受害者,讓他們相信自己的親人遇到了麻煩,急需現金。它所需要的只是某人的一小段聲音,有時可以在互聯網上找到,如果沒有,也可以通過錄制垃圾電話來收集,再加上一個語音克隆應用程序,比如ElevenLabs的人工智能語音軟件VoiceLab。 加州大學伯克利分校的數字法醫學教授哈尼·法里德(Hany Farid)表示:「如果你在TikTok上錄制了一段聲音視頻,那就足夠了。」 他對此類騙局越來越多並不感到驚訝。「這是一個連續體的一部分。我們從垃圾電話開始,然後是電子郵件釣魚詐騙,然後是短信釣魚詐騙。所以這是這些騙局的自然演變。」 「不要相信聲音」 根據美國聯邦貿易委員會的說法,這在現實中意味著,你不能再相信那些聽起來與你朋友和家人的聲音完全相同的聲音。 「不要相信聲音,」聯邦貿易委員會警告說。「打電話給那個本該聯繫你的人,覈實一下這個故事。用一個你知道是他們的電話號碼。如果你聯繫不到你愛的人,試著通過其他家庭成員或他們的朋友與他們取得聯繫。」 Vall-E製造商微軟提到了這個問題,在一篇演示該技術的論文中,微軟發表了一份免責聲明,稱「濫用該模型可能會帶來潛在風險,比如欺騙語音識別或模仿特定的說話者。」該論文指出,如果該工具向公眾推出,它「應該包括一份協議,以確保說話者批准使用他們的聲音。」 今年1月,ElevenLabs在推特上寫道:「我們也看到了越來越多的語音克隆濫用案例。」 出於這個原因,該公司表示,身份驗證對於清除惡意內容至關重要,而且這項技術只需要付費才能使用。 如何保護自己 不法分子利用語音克隆軟件模仿聲音進行犯罪,提高警惕是很重要的。首先,如果你接聽一個未知號碼的電話,讓打電話的人先說話。如果你只說「你好?你是誰?」他們可以用那個音頻樣本來冒充你。 法里德說當他接到所謂的家庭成員(比如他的妻子)打來的電話時,他會問她一個他們已經知道的暗號。 這是對付高科技問題的低技術手段。美國聯邦貿易委員會還警告消費者不要相信來自未知方的來電,並建議人們以另一種方式覈實自稱來自朋友或家人的來電,例如撥打已知號碼的人或聯繫共同的朋友。 此外,當有人要求通過電匯、禮品卡或加密貨幣付款時,這些也可能是危險信號。 美國聯邦貿易委員會表示:「騙子要求你付款或匯款,讓你的錢很難拿回來。」#北美 #詐騙 #AI 
    12 人回報2 則回應1 年前
  • 張片集團是怎麽用這種AI的身為技術來變臉 可以讓你幻象另外一張臉 變成甚至變明星的臉 來看一下這個技術是怎麽達到的 開啟這個軟體之後 你可以看到它的畫面有四個畫面 第一個是它會截取你的原本的面部 臉是長什麽樣子 然後中間這個呢 它是會分析你臉上的一些數據 就是例如說你的眼距呀 或是它會抓你臉上的一些點 第三個的話就是選你要套用的是什麽樣的人 像我們現在套用的是明星姬努李維 那第四個就是把你的臉像跟要套用的這個模型結合 之後輸出的這個樣子 大家可以看到我的臉像就變成姬努李維的臉 那接下來我們要教民衆來去識別一下 用什麽樣的技巧可以知道對方是使用了這個身為的技術 因為這個技術它只能套用在你的臉部上面 所以例如說像是你的側面 還有脖子這邊就不會套用到 所以你可以看到側臉的部分其實是會模糊的 然後你的臉跟你的脖子的色差也是會蠻嚴重的 再來因為它只是針對你的臉部 所以像手指這種就沒有辦法套用到模型 所以如果當你的手在臉前揮的話 就會有快要透明的效果 然後也會導致你的臉部的面部是扭曲的 好,我現在來試一個女生的樣子好了 好,一樣套上之後我就變成了另外一張臉了,對不對 那再給大家看一下就是在側臉的部分 也確實是會有扭曲的現象 那如果手指在眼前揮的話 你就會看到那個臉部突然就一陣一陣模糊 然後手指不見這樣子 他們在裡面呢,自己有創建了很多不同的臉部的模型 像這樣子我就看起來好像不同國家的人 然後性別也不一樣了 那一樣看到這個側面 這個側臉的部分就會是模糊的 所以如果民眾跟對方有視訊講話的機會的話 可以利用這一些技巧 就是例如說要求對方做一些不同的姿勢啊 或者是要求他揮手啊 用這種方式來判別他是不是有套用這個 AI變臉的身為技術 近來國內也有類似的詐騙受害案件 本局在此呼籲國人對於詐騙集團 運用新型態的身為技術 以聲音及影像進行詐騙的手段 需要特別留心,謹慎辨識
    3 人回報1 則回應1 年前
  • 如果你的手機響,看見自己的照片在電話上好像照相機一樣,千萬不要回應、更不要對著螢幕,也不要講任何的話等到他自己掛斷,我老婆的電話昨天出現過一次,我剛剛接到號碼是852開頭的、我昨天我去蘋果查過,他們也說千萬不要理等他自己掛斷,如果你一回應、利用你的聲音還有你的頭像、再用A I技術,和你朋友用視頻通話朋友就以為是真的是你,那麼就中招了
    2 人回報1 則回應4 個月前
  • 今天分享一個銀行內部的體系 當你到提款機前提款時 給你一個小小的建議 在上位插提款卡前 請先按取消鍵兩次 插入提款卡 因為你按了取消鍵 可以把那些非法的設定取消 這歹徒在鍵盤裡設定好的 就可以偷取你的密碼 你一定要把這個動作視為習慣 在這個詐騙到處有的情況下 還是要小心 記得把這個視頻傳給你的家人 或者你的朋友
    9 人回報1 則回應1 個月前
  • 今天分享一個銀行內部的提醒 當你到提款機前提款時 給你一個小小的建議 在尚未插提款卡前 請先按取消鍵兩次 插入提款卡 因為你按了取消鍵 可以把那些非法的設定取消 這歹徒在鍵盤裡設定好的 就可以偷取你的密碼 你一定要把這個動作視為習慣 在這個詐騙到處有的情況下 還是要小心 記得把這個視頻傳給你的家人 或者你的朋友
    34 人回報1 則回應5 個月前
  • 今天分享一個銀行內部的提醒 當你到提款機前提款時 給你一個小小的建議 在上位插提款卡前 請先按取消鍵兩次 插入提款卡 因為你按了取消鍵 可以把那些非法的設定取消 有著歹徒在鍵盤裡設定好的 就可以偷取你的密碼 你一定要把這個動作視為習慣 在這個詐騙到處有的情況下 還是要小心 記得把這個視頻傳給你的家人 或者你的朋友
    7 人回報1 則回應2 個月前