Siaran pers mengatakan integrasi ini meningkatkan kemampuan PAD platform yang sudah ada dengan sinyal baru pada peniruan gambar dan video yang dihasilkan AI secara langsung maupun pra-rekaman: “deteksi deepfake multimodal” yang “meningkatkan kinerja ISO/IEC 30107-3 PAD Level 2 untuk melawan meningkatnya serangan media sintetis.”
“Serangan deepfake berkembang lebih cepat daripada kemampuan adaptasi sebagian besar organisasi, dan mendeteksinya memerlukan model khusus yang terus diperbarui,” kata Ben Colman, CEO Reality Defender. Model Reality Defender mengikuti perkembangan perubahan regulasi seperti EU AI Act dan standar ISO 25456 yang akan datang, untuk memastikan kepatuhan yang lancar.
“Kemajuan dalam peniruan yang dihasilkan AI sedang menulis ulang aturan jaminan identitas dan meningkatkan kerugian akibat penipuan,” kata Mike Engle, chief strategy officer untuk 1Kosmos. “Dengan menambahkan Reality Defender sebagai lapisan deteksi terintegrasi, kami memungkinkan perusahaan untuk memverifikasi identitas dengan kepastian yang lebih besar dan menghentikan serangan peniruan yang digerakkan oleh AI sebelum mengakibatkan kerugian finansial, kerusakan merek, atau konsekuensi peraturan.”
Produk ini diterapkan tanpa hambatan, terintegrasi secara native ke dalam alur kerja 1Kosmos, tumpukan identitas, dan pengalaman pengguna yang sudah ada tanpa lisensi baru, pelatihan ulang, atau rearsitektur.
Resemble AI langsung menuju pasar dengan pendanaan baru
Resemble AI telah mengumpulkan 13 juta dolar dalam pendanaan strategis untuk mempercepat pengembangan produk pembuatan suara dan deteksi deepfake-nya. Sebuah pengumuman mengatakan bahwa putaran investasi ini mencakup AI Future Fund dari Google, Okta Ventures, Taiwania Capital, Gentree Fund, IAG Capital Partners, Berkeley Frontier Fund dan KDDI – kemitraan yang, menurut perusahaan, “menciptakan jalur langsung menuju distribusi pasar dan menanamkan teknologi kami dalam ekosistem identitas dan keamanan utama.”
Perusahaan tersebut mengatakan bahwa model deteksi deepfake-nya mencapai akurasi 98 persen di lebih dari 40 bahasa dengan deteksi ancaman multimodal di seluruh audio, video, gambar, dan teks, serta peningkatan kemampuan penjelasan untuk analisis konten. Perusahaan tersebut bermaksud menggunakan investasi ini untuk “mendorong ekspansi global kami dan mempercepat pengembangan platform deteksi AI kami.”
FARx merilis alat deteksi deepfake multimodal baru
FARx, yang menyebut dirinya sebagai “satu-satunya perusahaan biometrik gabungan di dunia,” telah mengumumkan peluncuran FARx 2.0, generasi baru perangkat lunak biometriknya yang menggabungkan pengenalan suara, ucapan, dan wajah untuk kemampuan tambahan dalam deteksi suara sintetis dan kloning. Perangkat lunak ini dapat diintegrasikan ke dalam peramban, aplikasi, dan sistem komunikasi, dan beroperasi di latar belakang untuk menyediakan autentikasi multi-faktor berkelanjutan tanpa gangguan.
Sebuah unggahan di halaman LinkedIn perusahaan tersebut mengatakan bahwa FARx 2.0 “tidak hanya mengidentifikasi apa yang sedang dikatakan tetapi juga siapa yang berbicara, memungkinkannya untuk mendeteksi dan memblokir upaya untuk memalsukan identitas seseorang menggunakan suara sintetis, deepfake, atau audio dan video hasil kloning.” Dilatih dengan sekitar 55.000 suara sintetis dari lingkungan telefoni nyata, ia dapat “dengan andal membedakan antara suara asli dan suara yang dihasilkan oleh AI.”
Malvern Gazette mengutip Clive Summerfield, CEO perusahaan yang berbasis di Worcestershire, Inggris, yang mengatakan bahwa produk baru ini bertujuan untuk menghadirkan “teknologi autentikasi multi-faktor biometrik yang lebih canggih dan fleksibel kepada pengguna di berbagai industri dan aplikasi.”
Biometrik suara lawas dan sistem MFA tradisional tidak lagi cukup untuk mengakali ancaman bertenaga AI di era baru ini.
Peluncuran ini menyusul investasi baru-baru ini sebesar 250.000 poundsterling (sekitar US$337.00) melalui Skema Investasi Perusahaan Benih (SEIS).
Dana hibah mendanai alat deepfake yang dirancang khusus untuk Korea Selatan dan Singapura
Tim dari Singapore Management University (SMU) telah memenangkan hibah untuk mengembangkan alat pendeteksi deepfake. Siaran pers mengatakan proyek ini akan menjadi “set data deepfake multibahasa pertama yang mencakup varian dialek seperti Singlish dan dialek Korea.”
Banyak alat yang ada saat ini tidak bekerja dengan baik pada bahasa-bahasa Asia, aksen, atau konten,” kata Profesor He Shengfeng, yang memimpin tim. “Kami fokus membangun sesuatu yang sesuai dengan kebutuhan spesifik wilayah kami.
Memahami berbagai karakteristik linguistik, sosio-kultural, dan lingkungan merupakan persyaratan utama untuk hibah tersebut, yang berasal dari AI Singapore (AISG) dan Institute for Information & Communication Technology Planning & Evaluation (IITP) dari Korea Selatan.
Tim tersebut menjuluki alat mereka DeepShield, yang dalam makalah proposalnya disebut sebagai “sistem deteksi terinterpretasi terpadu pertama yang mampu menangani beragam manipulasi multi-modal – termasuk penyisipan objek, perubahan pencahayaan, pertukaran latar belakang, dan sulih suara – dalam satu alur yang dapat dijelaskan.”
Secara keseluruhan, DeepShield ingin memposisikan dirinya sebagai “bukan sekadar alat deteksi, tetapi lapisan tata kelola AI generasi berikutnya untuk integritas media digital – membedakannya dari penawaran komersial baik dalam ambisi maupun desain.” Tujuan utamanya adalah perusahaan rintisan spin-off yang Ia bayangkan akan melisensikan layanan seperti forensik deepfake, verifikasi keaslian media, kepatuhan perusahaan, dan tata kelola digital kepada perusahaan publik dan swasta.
Pekerjaan dimulai pada Januari 2026 dengan penjelajahan dataset skala besar yang tersedia untuk umum seperti dataset YouTube8M.
Detektor deepfake pemenang Ant International berupaya menghilangkan bias
Ant International meraih juara pertama di Kompetisi NeurIPS tentang Keadilan dalam Deteksi Wajah AI. Siaran pers dari perusahaan tersebut mengatakan bahwa entri mereka mengungguli lebih dari 2.100 pengajuan dari 162 tim secara global.
Kontes deteksi deepfake menantang peserta untuk mengembangkan model AI yang “tidak hanya mencapai kinerja utilitas tinggi tetapi juga menunjukkan keadilan di seluruh subkelompok demografis seperti jenis kelamin, usia, dan warna kulit.”
AI yang bias adalah AI yang tidak aman,” kata Dr. Tianyi Zhang, general manager manajemen risiko dan keamanan siber di Ant International. “Keadilan model kami mencegah eksploitasi dari deepfake dan memastikan verifikasi identitas yang andal untuk semua pengguna, mendukung misi kami untuk memberikan layanan keuangan yang aman dan inklusif di seluruh dunia.
Disediakan oleh SyndiGate Media Inc. (Syndigate.info).

















