Binance-Gründer CZ warnt Nutzer vor dem Einsatz von KI-Deepfakes in Kryptowährungen – Was ist hier los?
Jede Form von Investment birgt Risiken. Es besteht die Möglichkeit, dass Sie Ihr eingesetztes Kapital teilweise oder vollständig verlieren. Der Zugang zu dieser Plattform ist auf Personen beschränkt, die sich in Ländern oder Regionen befinden, wo die angebotenen Handels- und Anlageformen gesetzlich erlaubt sind. Die Nutzung unserer Dienste ist ausschließlich für Individuen vorgesehen, die nach den geltenden Gesetzen und Vorschriften dazu berechtigt sind.
Bitte prüfen Sie sorgfältig, ob die hier angebotenen Investmentmöglichkeiten in Ihrem Land oder Ihrer Region dem Anlegerschutz unterliegen. Es liegt in Ihrer Verantwortung, eine gründliche Prüfung (Due Diligence) durchzuführen. Bitte beachten Sie, dass wir möglicherweise Provisionen von den auf dieser Website präsentierten Unternehmen erhalten.

Der CEO des Krypto-Börsenriesen Binance, Changpeng Zhao (CZ), hat eine Warnung vor KI-gesteuerten Deepfake-Videos ausgesprochen, die ein erhebliches Risiko für Kryptowährungen darstellen.
Unter Bezugnahme auf ein KI-gestütztes Video, in dem Joshua Xu, CEO von HeyGen, zu sehen ist, sagte CZ, dass solche Videos “aus Sicht der Videoverifikation ziemlich beängstigend sind”.
“Schicken Sie niemandem Coins, auch wenn er Ihnen ein Video schickt”, schrieb er.
This is pretty scary from a video verification perspective. Don't send people coins even if they send you a video… 🤷♂️ https://t.co/jvjZGHihku
— CZ 🔶 BNB (@cz_binance) August 9, 2023
Der Tweet von Xu enthielt 100% KI-generierte Videos seines eigenen Avatars und Stimmklons. “Wir haben die Videoqualität unseres Lebensstil-Avatars massiv verbessert und unsere Sprachtechnologie so abgestimmt, dass sie meinen einzigartigen Akzent und meine Sprachmuster perfekt imitiert”, heißt es in dem Post weiter.
Der CEO von HeyGen wies darauf hin, dass diese Funktion bald für die Produktion bereitgestellt wird, damit jeder sie ausprobieren kann, und dass der KI-Videogenerator nur “zwei Minuten” braucht, um einen echt aussehenden digitalen Avatar zu erstellen.
Laut der Binance-Website müssen die Nutzer einen Videobeweis vorlegen, um die Identität des Kunden zu überprüfen, wenn sie Geld von der Börse abheben wollen. Der Know-Your-Customer (KYC)-Prozess verlangt eine Videoverifizierung zusammen mit einem Bild des Personalausweises oder Reisepasses des Nutzers.
Die Regel besagt: “Bitte fügen Sie keine Wasserzeichen in Ihre Videos ein und bearbeiten Sie Ihre Videos nicht”, heißt es in der Richtlinie.”
Im Mai sagte Jimmy Su, Chief Security Officer von Binance, dass die KI-Technologie sehr “fortschrittlich” sei und Deepfakes bald von einem menschlichen Prüfer nicht mehr erkannt werden könnten.
Synchronisierung von Kryptos und Deepfakes
DeepFakeAI, das KI-Projekt in der Kryptoindustrie, hat in der Community durch seine eingeblendeten Videos von Tesla- und Twitter-CEO Elon Musk, SEC-Vorsitzendem Gary Gensler und Ethereum-Mitbegründer Vitalik Buterin an Zugkraft gewonnen.
Die Plattform ermöglicht es Nutzern, KI-gesteuerte Videos mit Hilfe der Deepfake-Technologie anzupassen und zu erstellen und über einen nativen Bot auf die Dienste der Plattform zuzugreifen.
Die DeepFakeAI-Plattform verfügt über eine eigene Kryptowährung mit dem Namen FAKEAI, die bestimmte Vorteile wie den kostenlosen Zugang zu bestimmten Angeboten der Plattform bietet. Nach Angaben von CoinGecko wurde FAKEAI zum Zeitpunkt der Veröffentlichung bei $0,00028227 gehandelt.
Obwohl die Technologie vielversprechend und lukrativ aussieht, fürchten viele Krypto-Influencer, Nutzer und Investoren die Herausforderungen, die sie mit sich bringt.






