訊息原文

10 人回報1 則回應5 個月前
(warning)這是一個很重要的訊息(warning)

當你接到陌生電話,記住不要先出聲;

如果對方還是不出聲,就直接掛斷。

切記!切記!(聲音)(聲音)
因為AI正在收集你的聲音(死亡)

現有回應

  • 張鳳軒標記此篇為:❌ 含有不實訊息

    理由

    一、AI專家指出,目前AI技術發展快,大約5-10秒間的連續說話,能模擬出真實人聲。但實際電話通話情境,聲音品質可能不佳、容易失真;且若只是幾句「喂、你好」回應,難以製作出聲音品質佳的AI音檔。

    專家建議,民眾不需要過度防備,也不需要接起電話先不出聲。

    二、資安、AI專家說,對於陌生

    出處

    https://tfc-taiwan.org.tw/articles/10481

增加新回應

  • 撰寫回應
  • 使用相關回應 6
  • 搜尋

你可能也會對這些類似文章有興趣

  • 這是一個很重要的訊息,當你接到電話記住不要先出聲 如果對方還是不出聲,就要掛斷 切記!切記!因為AI正在收集你的聲音
    183 人回報1 則回應5 個月前
  • 午安 這是一個很重要的訊息! 當你接到電話記住不要先出聲,因為詐騙集團正在使用 AI,在收集你的聲音。 如果對方還是不出聲,就要掛斷。切記!切記! 若接到詐騙集團問你是不是某某人,現在有人正在以你的名義做什麼事...怎樣... 你聽完之後,縱使名字沒有錯,記得回覆否認說:不是,打錯了。即掛斷電話,封鎖來電號碼。 現在為了預防詐騙集團,看到陌生電話都不接,有時候也會錯過親友的求救電話而遺憾,不是嗎?! 適時的應對接電話,也是訓練生活的智慧。
    3 人回報1 則回應5 個月前
  • A l的世代.. 詐騙集團的手法一直在推陳出新、 當你接到陌生來電時..! 千萬要記得不要先出聲-不要先喂.. 問對方是誰? 要等對方先出聲, 如果對方還是不出聲,就要掛斷, 切記~切記~,因為AI正在準備收集你的聲音.. 複製你的聲音要向你的親友進行詐騙。
    21 人回報1 則回應5 個月前
  • 接電話千萬別先開口!只需3秒 就可能成AI語音詐騙目標 2023-3-22世界日報新聞 如果你接聽一個陌生號碼的電話,一定要讓對方先說。電話另一端的人可能會錄下你的聲音片段,然後用它來模仿你。 這是美國聯邦貿易委員會(Federal Trade Commission)給大家的建議,該委員會警告消費者要當心騙子,這些騙子會偷偷錄下人們的聲音,然後偽裝成受害者的聲音,向受害者的親屬要錢。 在ChatGPT和微軟Vall-E等人工智能工具興起之際,美國聯邦貿易委員會描述了這樣一種情況。Vall-E是微軟今年1月展示的一種將文本轉換為語音的工具。Vall-E目前還沒有向公眾開放,但其他公司,如alike AI和ElevenLabs,已經推出了類似的工具。使用任何人的聲音樣本,這項技術可以準確地將書面句子轉換成令人信服的音頻。 聯邦貿易委員會消費者教育專家阿爾瓦羅·普伊格(Alvaro Puig)在該機構的網站上寫道:「你接到一個電話。電話里有人驚慌失措,說是你的孫子。他說他撞壞了車,進了監獄,有大麻煩了。需要你寄錢來幫忙。你深吸一口氣,然後思考可能是詐騙,但這聽起來就像他。」 只需3秒鐘 專家稱,犯罪分子正在利用廣泛使用的「語音克隆」工具來欺騙受害者,讓他們相信自己的親人遇到了麻煩,急需現金。它所需要的只是某人的一小段聲音,有時可以在互聯網上找到,如果沒有,也可以通過錄制垃圾電話來收集,再加上一個語音克隆應用程序,比如ElevenLabs的人工智能語音軟件VoiceLab。 加州大學伯克利分校的數字法醫學教授哈尼·法里德(Hany Farid)表示:「如果你在TikTok上錄制了一段聲音視頻,那就足夠了。」 他對此類騙局越來越多並不感到驚訝。「這是一個連續體的一部分。我們從垃圾電話開始,然後是電子郵件釣魚詐騙,然後是短信釣魚詐騙。所以這是這些騙局的自然演變。」 「不要相信聲音」 根據美國聯邦貿易委員會的說法,這在現實中意味著,你不能再相信那些聽起來與你朋友和家人的聲音完全相同的聲音。 「不要相信聲音,」聯邦貿易委員會警告說。「打電話給那個本該聯繫你的人,覈實一下這個故事。用一個你知道是他們的電話號碼。如果你聯繫不到你愛的人,試著通過其他家庭成員或他們的朋友與他們取得聯繫。」 Vall-E製造商微軟提到了這個問題,在一篇演示該技術的論文中,微軟發表了一份免責聲明,稱「濫用該模型可能會帶來潛在風險,比如欺騙語音識別或模仿特定的說話者。」該論文指出,如果該工具向公眾推出,它「應該包括一份協議,以確保說話者批准使用他們的聲音。」 今年1月,ElevenLabs在推特上寫道:「我們也看到了越來越多的語音克隆濫用案例。」 出於這個原因,該公司表示,身份驗證對於清除惡意內容至關重要,而且這項技術只需要付費才能使用。 如何保護自己 不法分子利用語音克隆軟件模仿聲音進行犯罪,提高警惕是很重要的。首先,如果你接聽一個未知號碼的電話,讓打電話的人先說話。如果你只說「你好?你是誰?」他們可以用那個音頻樣本來冒充你。 法里德說當他接到所謂的家庭成員(比如他的妻子)打來的電話時,他會問她一個他們已經知道的暗號。 這是對付高科技問題的低技術手段。美國聯邦貿易委員會還警告消費者不要相信來自未知方的來電,並建議人們以另一種方式覈實自稱來自朋友或家人的來電,例如撥打已知號碼的人或聯繫共同的朋友。 此外,當有人要求通過電匯、禮品卡或加密貨幣付款時,這些也可能是危險信號。 美國聯邦貿易委員會表示:「騙子要求你付款或匯款,讓你的錢很難拿回來。」#北美 #詐騙 #AI 
    12 人回報2 則回應1 年前
  • 有一個年輕人啊,他在上班的時候啊,接到了一個他南部的媽媽的電話,他媽媽在電話中告訴他,說他父親啊,開車出去的時候,因為不小心闖紅燈啊,把一個行人撞傷啦,現在對方啊,在醫院治療啊,對方說要十萬塊才能和解啊,所以他請他兒子啊,匯十萬塊到這個人的指定戶頭裡面,因為他媽媽說他們出來的時候啊,沒有帶任何的證件,所以就直接匯到對方的戶頭啊,啊當下他兒子聽到這個, 消息啊,覺得這是詐騙嘛,可是又怕說萬一是真的,於是他就回撥,注意是回撥喔,回撥然後,並且開視訊,視訊你對面確定是他媽媽沒有錯,他媽媽在電話中告訴他說,對方的家人已經來到醫院了,他堅持要告你父親過失傷害啊,只有十萬塊他才願意和解啊,當時警察也在現場啊,叫他兒子趕快匯錢到那個對方的指定戶頭, 他兒子呢,掛完電話之後,也認為說啊,既然是他母親這麼急,然後他就趕快去銀行匯了十萬塊,後來到了晚上的時候,他打電話去給他媽媽,想要問那個後續的情況怎麼樣,他媽媽覺得很莫名其妙,告訴他說,他沒有收到他的十萬塊,而且他也沒有打電話給他啊,他媽媽還嘲笑他說,他是不是遇到詐騙了啊,於是他趕快到醫院去告案,他也很當下他覺得很莫名其妙, 第一個,電話是他媽媽的沒有錯,第二個,視頻中確定是他媽媽也沒有錯,他為什麼會被詐騙,於是那個警察就告訴他說,現在有一種很新的詐騙手法,就是詐騙集團,他用各種方法取得了你家人的聲音跟影像,或者是照片,他就能夠完全利用AI智能科技,完全的複製出對你家人的聲音跟影像, 並且預先設定好你可能問的問題,然後他們怎麼回答,至於電話的部分,他們可以利用這個信號遮蔽器,遮蔽了你家人這個時段,他沒有辦法接收電話,然後透過轉接的方式,轉接到詐騙集團預設的AI智能科技系統裡面,那至於你會覺得說,這個要怎麼去破解,其實他只能複製聲音跟影像, 這個動作卻沒有辦法破解,注意各位粉絲,你一定要記得,未來AI智能科技是勢必的趨勢,這種科技利用在詐騙,其實對他們來講是非常有利,那我們要怎麼去破解,其實很簡單, 他們沒有辦法複製動作,並且沒有辦法預設你會提什麼樣的動作,所以你在跟家人通電話的時候,你懷疑這個會不會是詐騙的時候,你可以請他舉手,又或者是抬腳,做任何一個你想要指定的動作,這個是他們沒有辦法去預設的,還有聊一些過去小時候的一些發生的事情,這個都是能夠破解的,因為現在的科技真的是防不勝防,AI智能科技的 發生,恰恰給這個詐騙集團一個很好的詐騙機會,所以我們一定要不斷的更新這個詐騙的手法,我們怎麼去預防,這個是很重要的,各位。 後來這個年輕人就打電話問他媽媽說,最近是不是有一些陌生人出現,後來他媽媽才想起說,前一陣子一些老人在公園,有一些年輕人藉著訪問知名說他們是一個慈善機構來這邊關懷老人, 然後透過訪問給他們獎品,並且留下個人資料,告訴他們說,過一陣子以後都會陸陸續續通知他們,並且贈送獎品給他們。 所以我們一定要特別小心,也要把這個方法,詐騙手法告訴老人家,請他們務必小心陌生人。
    29 人回報1 則回應1 年前