訊息原文

2 人回報1 個月前
這樣
有活屍
這樣
你真的認為跟你聊天的是你認識的那個我嗎?
看了一開頭的這個幻影回笑
你是不是跟我一樣蛤貓都豎起來了?
我告訴你
尤其是女孩更要注意了
詐騙集團很有可能拿你這一張臉
通過 AI 的技術生成不雅飾品
放到非法網站去牟利
他們不只賺這個錢
甚至回過頭來再敲詐你
如果你不轉贊給他
就威脅你把這段不雅的影片
發送給你的好友、你的公司等等
你想想
你的身體特徵除了你媽跟你老公知道之外
他們會相信你這不是你本人
那其他人呢?
你該如何自證清白?
這真的是細思極恐
那騙子如何做到的呢?
首先要收集你的照片
使用 AI 的技術去進行合成
那麼臉部的訊息從何而來的?
第一
社交媒體上的照片以及朋友圈裡面
家人跟朋友當中的合照
第二
使用不明的免費 Wi-Fi
一旦你輸入手機號碼去登錄
手機的資料就很可能被黑客收集了
第三
中獎後拉票的網址
這個網址你一打開
就是很多很多的申請
你一旦授權了
這些資料全部都被詐騙集團所掌握了
再來
就是要獲取你的聲音啦
你們有沒有常常接到
有人打電話來
你好
我們公司現在正在做什麼什麼活動
講了很久
後來發現
對方莫名其妙把電話掛了
這很有可能
就是在收集我們的聲音
還有一些電話是打來不說話的
其實就是在等我們主動開口
獲取你的聲音之後
再根據我們的音色
聲線特點跟口音
就可以直接模擬你的聲音
你講的話越多
AI模擬的就越詳盡
這個就是AI的專業
好了
既然有了你爸媽的聯絡方式
再用AI生成一張跟你一模一樣的臉
一模一樣的聲音
再加上一些緊急的特殊狀況

我出車禍了
在醫院急需三萬塊
或是傻笑的跟你說

我在日本玩
錢不夠
我好愛你
可不可以匯錢給我
對於年輕人
都不一定能夠躲得過
何況是老人家呢
他們能夠防得住嗎
AI詐騙的技術
真的是日行月異
你跟我
都有可能成為下一個受害者
那麼如何識破AI的騙局呢
第一
如果對方開視訊
你可以提示他
臉上有髒東西
手在面部移動的時候
如果臉部有變形或者扭曲
那就是有問題

向對方提問
只有你們兩個知道的問題
如果對方答不上來
或是吞吞吐吐的
就可以馬上掛斷了
第三
如果要交付金錢的部分
一定要現場支付

如果發現對方是騙子
而且錢已經轉給對方了
第一件事情一定是先報警
這個動作越早做
越有可能儘速的凍結這筆錢
AI技術真的非常強大
我們不僅要了解這件事情的真相
更要知道如何來防範
Kiki姐建議
現在開始最好跟你身邊的人
討論一個暗號
譬如
一加一
等於泡菜鍋
那像這種答案
哪怕是再強大的技術
也解答不了這種拐彎的問題
好了
影片看完了
也別一個人知道而已
把它發給你身邊的人吧

現有回應

目前尚無回應

增加新回應

  • 撰寫回應
  • 使用相關回應 10
  • 搜尋

你可能也會對這些類似文章有興趣

  • (warning)這是一個很重要的訊息(warning) 當你接到陌生電話,記住不要先出聲; 如果對方還是不出聲,就直接掛斷。 切記!切記!(聲音)(聲音) 因為AI正在收集你的聲音(死亡)
    10 人回報1 則回應5 個月前
  • 這是一個很重要的訊息,當你接到電話記住不要先出聲 如果對方還是不出聲,就要掛斷 切記!切記!因為AI正在收集你的聲音
    183 人回報1 則回應5 個月前
  • A l的世代.. 詐騙集團的手法一直在推陳出新、 當你接到陌生來電時..! 千萬要記得不要先出聲-不要先喂.. 問對方是誰? 要等對方先出聲, 如果對方還是不出聲,就要掛斷, 切記~切記~,因為AI正在準備收集你的聲音.. 複製你的聲音要向你的親友進行詐騙。
    21 人回報1 則回應5 個月前
  • 張片集團是怎麽用這種AI的身為技術來變臉 可以讓你幻象另外一張臉 變成甚至變明星的臉 來看一下這個技術是怎麽達到的 開啟這個軟體之後 你可以看到它的畫面有四個畫面 第一個是它會截取你的原本的面部 臉是長什麽樣子 然後中間這個呢 它是會分析你臉上的一些數據 就是例如說你的眼距呀 或是它會抓你臉上的一些點 第三個的話就是選你要套用的是什麽樣的人 像我們現在套用的是明星姬努李維 那第四個就是把你的臉像跟要套用的這個模型結合 之後輸出的這個樣子 大家可以看到我的臉像就變成姬努李維的臉 那接下來我們要教民衆來去識別一下 用什麽樣的技巧可以知道對方是使用了這個身為的技術 因為這個技術它只能套用在你的臉部上面 所以例如說像是你的側面 還有脖子這邊就不會套用到 所以你可以看到側臉的部分其實是會模糊的 然後你的臉跟你的脖子的色差也是會蠻嚴重的 再來因為它只是針對你的臉部 所以像手指這種就沒有辦法套用到模型 所以如果當你的手在臉前揮的話 就會有快要透明的效果 然後也會導致你的臉部的面部是扭曲的 好,我現在來試一個女生的樣子好了 好,一樣套上之後我就變成了另外一張臉了,對不對 那再給大家看一下就是在側臉的部分 也確實是會有扭曲的現象 那如果手指在眼前揮的話 你就會看到那個臉部突然就一陣一陣模糊 然後手指不見這樣子 他們在裡面呢,自己有創建了很多不同的臉部的模型 像這樣子我就看起來好像不同國家的人 然後性別也不一樣了 那一樣看到這個側面 這個側臉的部分就會是模糊的 所以如果民眾跟對方有視訊講話的機會的話 可以利用這一些技巧 就是例如說要求對方做一些不同的姿勢啊 或者是要求他揮手啊 用這種方式來判別他是不是有套用這個 AI變臉的身為技術 近來國內也有類似的詐騙受害案件 本局在此呼籲國人對於詐騙集團 運用新型態的身為技術 以聲音及影像進行詐騙的手段 需要特別留心,謹慎辨識
    3 人回報1 則回應1 年前
  • 邀請您加好友,再請您幫我點開加好友哦。 聽到這樣的電話內容,千萬別相信這是警方首次查獲詐騙集團結合AI語音《機器人》犯案。 AI語音《機器人》先撥打你的電話,然後跟你對話。 對話之後,它是認為看你的反應,又適合的答案給你設計一套劇本的對話表。 AI語音《機器人》依回應內容、語音情緒,判定對方是否有興趣,再發送簡訊,以提高詐騙效率。 有40名被害人報案,累計財損達1億元。 幾個月期間,我們就發現這家人頭設立的一個投資公司,它已經發了6000多萬的簡訊。 我們在跟電信公司這邊合作的部分就是,發現這家公司跟電信公司是申請了155個門號。 這155個門號我們去清查之後,也是覺得可疑的地方是說,這家公司是沒有員工的。 隨著AI技術進步,真假難辨,在美國近期也開始出現越來越多AI語音詐騙案例。 我看到她的孫子的名字在電話號碼上,她聽到她說的一聲聲音就像他一樣,說他遇到一場意外。 他就說,奶奶,我破了我的鼻子。 我女兒的聲音在哭泣,我叫媽媽,幫幫我! 這位媽媽差點被AI女兒聲音求助,騙走100萬美元。 受害人紛紛表示,很難描述電話中的聲音有多麼真實。 因為現在的AI聲音複製技術,讓聲音可以變得非常像。 騙子只需要一點材料,可能只是一個無辜的影片,你發到TikTok或Instagram,使用AI,你的聲音可以被複製。 AI語音生成軟體可以分析年齡、性別和口音的不同,並搜尋龐大的聲音資料庫,找到相似的聲音,然後重新生成。 通常從YouTube、TikTok、Instagram等地方就可以獲取音訊樣本。 我站在你面前,不是作為專家,而是作為關心的民族。 一家AI公司就另有音訊工具,將好萊塢巨星雷奧納多在一場氣候高峰會上的演說,仿製其他名人的聲音,重新配音。 我經常用幻想的角色來解決幻想的問題。 我相信人類在同樣的方式看著氣候改變,就像是幻想。 聽起來就像鋼鐵人小羅伯道尼、微軟創辦人比爾蓋茲幫李奧納多來配音。 在技術突飛猛進下,以前複製一個人的聲音,需要從被複製者身上獲取大量樣本,現在只需要幾秒鐘就可以生成出一個接近你的聲音。 甚至現在最新的技術,只要我的聲音五秒鐘,就可以讓一個程式碼學我的聲音來錄音、來錄影,來做各式各樣的回應。 要讓AI孫燕姿可以像孫燕姿一樣唱歌的做法也非常簡單,就是我必須讓電腦,必須讓AI去聽很多孫燕姿唱歌的紀錄、音樂還有樂曲, 讓電腦可以學會她的意洋頓挫跟她的發音呼氣的方式,那麼AI就可以學會用孫燕姿的方式來唱歌。 在美國這類的語音複製服務,每個月只需要五美元,任何人都可以使用,也讓過去被認為安全的聲紋系統存在明顯漏洞。 為報澳洲記者,就用AI模擬自己的聲音,順利進入了澳洲社福中心和澳洲稅務局,使用的聲紋安全系統。 還有一個可能的情況是,未來一代AI代理人應用越來越廣,該如何辨別真假又是另一個課題。 未來很可能你在網路上面聊天,或者你在網路上面聽演講,或者是聽一場課堂,你其實大概都沒有辦法保證這個人到底是不是真的人,還是他是一個AI。 我認為這其實還是會為未來帶來很多的風險,像我自己最近都開始跟我的家人約定好, 如果你接到一個聽起來像我,講話的方式也像我,內容也像我的人,不要輕易相信他就是我,我們會約定好一個家族密語,確認他能夠回答這個問題的答案,他才是我。
    9 人回報1 則回應1 年前
  • 喂? 嘿? 對,請問你哪裡找? 你是不是接過陌生電話被推銷產品或是像這種? 喂? 電話接通完全沒聲音這可要小心了 恐怕是有人要趁機竊取你的聲音 可以立刻AI複製跟你一模一樣 先聽一下我剛才克隆了姚蜜的聲音 太可怕了 現在任何人都可以克隆任何人的聲音 別以為不可能 詐騙集團利用AI軟體 透過打騷擾電話複製聲音再拿去詐騙親友 過程可能只需要短短五秒鐘 詐騙犯只需要多給你打幾個騷擾電話 他們就可以生成你的專屬語音包 連足球劇情C羅都開口說中文 中英文轉換 這也是AI變造結果 AI還原音色語調連換氣都能學 幾乎真假難辨 尤其是像一些贅詞啊 一些那種音調啊 那其實很容易學的 大概七八句十句大概就可以學起來 只要騷擾電話防不勝防 避免聲音變詐騙集團蒐集 陌生來電別接 奇怪問卷別做 接通電話先別說話 但可以完全預防嗎 比如說如果有些陌生電話 可能就不跟他多講 直接把它掛掉 真的聽起來很像的 那可能要再次確認 AI科技每天都在進步 短短五秒騷擾電話 就可能偷走聲音去詐騙 讓人防不勝防 最保險的就是再打電話確認 以免下個受害的就是你 記者 葉宗盈 王書宏 高雄報導
    5 人回報1 則回應6 個月前
  • 各位,如果你們的手機響了,你看到自己的樣子出現在手機屏幕上,好像相機拍照那樣,千萬不要理它,不要對著屏幕,也不要說話,直到它自己停止。我老婆的手機昨天和今天都出現過一次這種情況,我剛剛接到一次,看到來電號碼是852開頭的,並且看到自己的樣子出現在畫面上。昨天我去蘋果店詢問過,他們說千萬不要理會它,讓它自己停機。原來你一按接聽電話,它就拍下你的樣子(獲取你的Face ID臉部識別),如果你對它說話,它就能錄下你的聲音,然後封鎖你的手機,使用你的手機內容,通過AI技術打電話給你的朋友,並與他們進行視像通話。你的朋友看到真的是你的樣子,就可能中招了。 這是一個新的騙術,大家要注意!
    893 人回報1 則回應23 天前
  • 喂? 嘿? 對,請問你哪裡是啊? 你是不是接過陌生電話被推銷產品或是像這種 喂? 電話接通完全沒聲音這可要小心了 恐怕是有人要趁機竊取你的聲音 可以立刻AI複製跟你一模一樣 先聽一下我剛才克隆了姚蜜的聲音 太可怕了 現在任何人都可以克隆任何人的聲音 別以為不可能 詐騙集團利用AI軟體 透過打騷擾電話複製聲音再拿去詐騙親友 過程可能只需要短短五秒鐘 詐騙犯只需要多給你打幾個騷擾電話 他們就可以生成你的專屬語音包 連足球劇情C羅都開口說中文 中英文轉換這也是AI變造結果 AI還原音色語調連換氣都能學 幾乎真假難辨 尤其是像一些贅詞啊 一些那種音調啊 那其實很容易學的 大概七八句十句大概就可以學起來 只要騷擾電話防不勝防 避免聲音被詐騙集團蒐集 陌生來電別接 奇怪問卷別做 接通電話先別說話 但可以完全預防嗎 比如說如果有些陌生電話 可能就跟他或跟他多講 直接把他掛掉 真的聽起來很像的 那可能要再次確認 AI科技每天都在進步 短短五秒騷擾電話 就可能偷走聲音去詐騙 讓人防不勝防 最保險的就是 再打電話確認 以免下個受害的就是你 記者 葉宗盈 王書宏 高雄報導 我是徐國豪 在中視新聞首次坐上主播台 體會到播報新聞所需要的穩健台風 以及掌握突發即時新聞的隨機應變 為觀眾播報最即時的新聞 就是展現專業的時刻 更多新聞請鎖定中視新聞YouTube頻道 記得按讚 訂閱 分享 並開啟小鈴鐺喔
    16 人回報1 則回應5 個月前
  • 午安 這是一個很重要的訊息! 當你接到電話記住不要先出聲,因為詐騙集團正在使用 AI,在收集你的聲音。 如果對方還是不出聲,就要掛斷。切記!切記! 若接到詐騙集團問你是不是某某人,現在有人正在以你的名義做什麼事...怎樣... 你聽完之後,縱使名字沒有錯,記得回覆否認說:不是,打錯了。即掛斷電話,封鎖來電號碼。 現在為了預防詐騙集團,看到陌生電話都不接,有時候也會錯過親友的求救電話而遺憾,不是嗎?! 適時的應對接電話,也是訓練生活的智慧。
    3 人回報1 則回應5 個月前
  • 喂﹐先生您好,我是加利比銀行的,可以給您提供一張100萬額度的信用卡,還款期限為半年,請問您需要嗎﹐啊,不用,不用,沒有需要﹐我們還在做客戶調查問卷,佔用您一分鐘時間回答幾個問題,可以給您手機充值300元,您看可以嗎﹐只佔用您一分鐘﹐那行吧,你說吧﹐請問您是從事什麼職業的﹐上班﹐您生活在哪個城市呢﹐瀋陽﹐請您簡短介紹一下您的工作內容好嗎﹐簡單幾句話﹐ 就是在一般大公司打工混日子﹐忘了請教您怎麼稱呼﹐我姓田﹐那您的全名怎麼稱呼﹐田浩﹐謝謝﹐再見﹐等會,您這300元先花費﹐我當然知道他叫什麼﹐他的信息﹐他父母的信息﹐他親朋好友的信息﹐我都有﹐我只是叫他的聲音而已﹐然後我把他的聲音導入 AI軟件裏讓AI學習﹐這類軟件不止一種功能大同小異﹐學好之後﹐我讓他說什麼﹐他就會用田浩的聲音說出來﹐比如我錄製一段聲音說﹐喂媽,我田浩﹐那小二虎生病了,需要手術﹐你趕緊給我轉50萬﹐到醫院賬戶裏啊﹐我一會給你發﹐你快點啊﹐我現在﹐我得馬上去辦手續了﹐然後我把我的錄音導入軟件﹐選擇田浩的聲音模型 再跟電話裏的聲音對比一下﹐那行吧﹐你說吧﹐就是在一般大公司打工混日子唄﹐怎麼樣﹐他是用田浩的聲音模仿我的語氣說出的這段話﹐如果我用這個技術﹐偽裝成你的聲音﹐換成各種要錢的聲音﹐我會給你發﹐你快點啊﹐我現在﹐我就馬上辦手續去了﹐再跟電話裏的聲音對比一下﹐那行吧﹐你說吧﹐就是在一般大公司打工混日子唄﹐怎麼樣﹐他是用田浩的聲音模仿我的語氣說出的這段話﹐如果我用這個技術﹐偽裝成你的聲音� 換成各種要錢的聲音﹐換成各種要錢的聲音﹐換成各種要錢的聲音﹐換成各種要錢的聲音﹐換成各種要錢的聲音﹐換成各種要錢的聲音﹐換成各種要錢的聲音
    14 人回報1 則回應1 年前