Bahaya Sora AI yang ramai tak tahu

Sora AI by OpenAI tu apa?

Sora AI ni model AI yang boleh buat video dari teks je.

Model ni dibuat oleh OpenAI, sebuah geng penyelidik AI yang gempak gila dengan model-model lain macam ChatGPT dan Dall-E.

Sora AI ni guna teknologi transformer, otak buatan yang boleh faham dan proses data teks dengan power. Nak tahu lebih jelas baca disini.

Apa yang Sora AI boleh buat?

Sora AI ni boleh buat video dari teks yang korang tulis. Video yang keluar tu boleh panjang sampai satu minit, dengan kualiti gambar dan kesesuaian dengan teks yang mantap.

Sora AI ni boleh buat video dengan cerita, susunan, dan gerakan kamera yang agak complicated.

Sora AI ni juga boleh faham tentang perasaan, gaya, dan personaliti watak dalam video. Sora AI ni boleh menjadi satu tool kreatif yang boleh tolong artis, designer, dan filmmaker untuk cipta scene-scene yang best dan unik. Paling best semuanya buat depan PC je. Pergh.

Apa bahaya Sora AI?

Walaupun Sora AI ni ada banyak kebaikan, ia juga boleh menjadi bahaya & korang kena alert bab ni. Salah satu bahaya yang utama adalah orang jahat boleh menggunakan model ni untuk membuat video palsu atau deepfake.

Deepfake ni video yang menunjukkan orang atau benda yang tak betul, tapi nampak sangat real. Deepfake ni boleh diguna untuk tipu, fitnah, atau ugut sesiapa je.

Bayangkan kalau gambar korang kena curi oleh orang lain, pastu diguna untuk buat video yang tunjukkan korang ni tengah buat benda jahat atau benda yang memalukan.

Benda ni confirm confirm nampak real gila kan, so fitnah tu boleh jadi kat sesiapa je.

Macam mana nak selamat dari bahaya Sora AI?

Untuk elak jadi mangsa deepfake, korang kena ambil langkah-langkah berjaga-jaga.

Salah satu caranya adalah dengan kurang kan gambar diri sendiri kat media sosial. Bukan tak boleh langsung, tapi jangan banyak sangat la.

Kalau terlalu cantik, lagi kena kurang kan sebenarnya. Selain tu, korang juga kena lebih bijak dan teliti bila tengok video kat internet. Jangan cepat percaya dengan apa yang korang nampak, tapi check dan verify sumbernya.

Kalau ada benda yang pelik atau tak masuk akal, korang boleh guna tools-tools untuk detect deepfake yang ada kat website macam Sensity atau Deepware.

Apa yang OpenAI buat untuk pastikan Sora AI selamat?

OpenAI ni bertanggungjawab untuk pastikan Sora AI ni selamat dan beretika.

Mereka dah ambil beberapa langkah keselamatan yang penting, macam kerjasama dengan “red teamers” untuk test dan nilai potensi bahaya dan risiko model ni. Mereka juga involve dengan ahli policy, pendidik, dan artis dari seluruh dunia untuk fahamkan tentang kebimbangan dan mencari kesan positif untuk teknologi ni.

Selain tu, mereka juga minta pada pembuat video yang menggunakan Sora untuk label kan video, ikut guideline C2PA.

C2PA ni singkatan dari Coalition for Content Provenance and Authenticity, sebuah usaha sama antara syarikat-syarikat teknologi macam Microsoft, Adobe, dan BBC untuk tetapkan standard bagi sahkan dan label kan kandungan digital.

Kesimpulan

Sora AI ni model AI yang boleh buat video dari teks.

Model ni ada banyak fungsi dan kelebihan, tapi ada juga bahayanya macam salah guna untuk buat video palsu atau deepfake.

Korang kena hati-hati dan bijak dalam menggunakan Sora AI. Korang juga kena hargai usaha OpenAI untuk pastikan model ni selamat dan etika.

Adakah artikel ni membantu?

Report jika artikel ini tidak tepat, bermasalah & perlu dibaiki.

Sebarang masalah boleh hubungi kami di [email protected]

Portal Hackers

Financial

Support