Michael Saylor เตือนชุมชนบิตคอยน์ถึงภัยคุกคาม Deepfake ที่เพิ่มขึ้น
Michael Saylor ผู้ก่อตั้ง MicroStrategy และยักษ์ใหญ่ด้านเทคโนโลยีได้ออกคำเตือนเกี่ยวกับการเพิ่มขึ้นของการโกงในรูปแบบ Deepfake ที่สร้างโดย AI ในชุมชนบิตคอยน์
การเตือนนี้เกิดขึ้นหลังจากมีหลายรายงานในสัปดาห์ที่ผ่านมาระบุถึงวิดีโอที่ถูกสร้างขึ้นโดยใช้ AI ของ Saylor ที่แสร้งให้เขาพูดว่า “จะแจกเงินให้มากขึ้นสองเท่าทันที” โฆษณาปลอมนี้จะกระตุ้นลูกค้าให้สแกน QR code เพื่อส่งบิตคอยน์ (BTC) ไปยังมิจฉาชีพ
ผู้ใช้รายหนึ่งโพสต์บน X (ก่อนหน้านี้เป็น Twitter) ว่ามีวิดีโอ Deepfake ของ Michael Saylor ปล่อยออกมาในยูทูปอีกแล้ว
Saylor ได้ตอบกลับเมื่อวันอาทิตย์ว่า “มันไม่มีทางไหนที่ไม่เสี่ยงหรอก ในการจะให้บิตคอยน์เป็นสองเท่าน่ะ”
“MicroStrategy ไม่ได้แจก BTC ให้ผู้ที่สแกนบาร์โค้ด” เขาเน้นย้ำ
⚠️ Warning ⚠️ There is no risk-free way to double your #bitcoin, and @MicroStrategy doesn't give away $BTC to those who scan a barcode. My team takes down about 80 fake AI-generated @YouTube videos every day, but the scammers keep launching more. Don't trust, verify. pic.twitter.com/gqZkQW02Ji
— Michael Saylor⚡️ (@saylor) January 13, 2024
นอกจากนี้ เขายังเปิดเผยว่าทีมรักษาความปลอดภัยของเขาลบวิดีโอ Deepfake โดยเฉลี่ย 80 วิดีโอต่อวัน ซึ่งแสดงถึงจำนวนโฆษณาหลอกลวงคริปโตของ Saylor
“ทีมของผมลบวิดีโอบน YouTube ที่สร้างโดย AI ปลอมประมาณ 80 วิดีโอทุกวัน แต่มิจฉาชีพวกนี้กลับเพิ่มขึ้นเรื่อยๆ อย่าเชื่อเด็ดขาด ตรวจสอบให้ดีก่อน”
วิดีโอหลอกลวงของ Saylor สร้างขึ้นมาหลังจากกระแสวิดีโอดีพเฟคที่ดูน่าเชื่อในช่วงที่ผ่านมา ในเดือนพฤศจิกายน 2023 วิดีโอปลอมของ Ripple และประธาน Brad Garlinhouse ปรากฏขึ้นพร้อมกับการแจก XRP ปลอม ในทำนองเดียวกัน Charles Hoskinson ผู้ร่วมก่อตั้ง Cardano ก็ตกเป็นเหยื่อของ Deepfake ในเดือนธันวาคม ซึ่งเขาก็ได้ออกมาเตือนเกี่ยวกับวิดีโอหลอกที่เพิ่มขึ้นมานี้อย่างทันที
As predicted, Generative AI scams are now here. These will be dramatically better in 12-24 months and hard for anyone to distinguish between reality and the AI fiction https://t.co/u7uaIEUodt
— Charles Hoskinson (@IOHK_Charles) December 15, 2023
การสู้กับ Deepfakes คริปโต
เทคโนโลยี AI ที่พัฒนาอย่างรวดเร็วได้ซ่อนภัยคุกคามอันเลวร้ายไว้ ทั้งด้านความปลอดภัยและความเป็นส่วนตัว ตามรายงานของ UCL ระบุว่าผู้เชี่ยวชาญได้จัดอันดับวิดีโอ/เสียงที่มีการบิดเบือนว่าเป็นการใช้ปัญญาประดิษฐ์ซึ่งเป็นที่น่ากังวลที่สุดเมื่อนำมาประยุกต์ใช้กับอาชญากรรม
Matt Groh ผู้ช่วยวิจัยของ Affective Computing Group ที่ MIT Media Lab กล่าวว่าผู้คนสามารถป้องกันตนเองจากการตกเป็นเหยื่อของ Deepfake ได้โดยใช้สติและความรู้ “คุณต้องมีความสงสัยบ้างนิดนึง ต้องตรวจสอบอีกครั้งและไตร่ตรองให้ดีก่อน” Groh กล่าว






