Mantan pemimpin keselamatan google meminta transparansi ai-algoritma, memperingatkan ‘konsekuensi serius bagi kemanusiaan’
Kepala SmartNews dari Global Trust and Safety Calls pada Regulasi Kecerdasan Buatan Baru (AI) untuk memprioritaskan transparansi pengguna dan memastikan bahwa pengawasan manusia tetap menjadi komponen penting untuk sistem rekomendasi berita dan media sosial.
“Kita harus memiliki pegangan,” kata Arjun Narayan. “Tanpa orang, segala sesuatu yang bisa salah, seperti prasangka yang jatuh dalam model atau model bahasa yang hebat di tangan yang salah, bisa menjadi konsekuensi yang sangat serius bagi kemanusiaan.”
Narayan, yang sebelumnya bekerja pada kepercayaan diri dan keselamatan untuk Google dan Bitedance, perusahaan di belakang Tiktok, mengatakan penting bagi perusahaan untuk mengenali opt-in dan opt-out saat menggunakan Model Bahasa Besar (LLM). Sebagai standar, semua yang diumpankan ke LLM akan diterima dan dikumpulkan oleh model. Menurut Narayan, banyak perusahaan, terutama bisnis baru, harus memilih untuk menghindari kebocoran dan memastikan kerahasiaan.
AI di seluruh dunia: Bagaimana AS, UE dan China berencana untuk mengatur perusahaan perangkat lunak AI
Arjun Narayan, kepala kepercayaan dan keselamatan global untuk SmartNews, sebelumnya bekerja di Google dan menggigit kepercayaan dan keselamatan. (Digital Fox News)
Selain itu, Narayan mengatakan regulator harus menyinggung transparansi tentang bagaimana algoritma dilatih. Jika data atau data algoritma SmartNews menggunakan bisnis lain, perusahaan harus tahu apakah itu terjadi dan apakah itu akan dikompensasi.
“Anda tidak ingin seluruh dunia tahu apa yang akan dimulai produk Anda berikutnya,” katanya.
Ketika aplikasi baru untuk AI terus berkembang, Narayan menekankan perlunya meningkatkan media dan melek konsumen. Selama beberapa bulan terakhir, beberapa negara, termasuk Cina dan Kuwait, telah merilis jangkar berita AI yang menggunakan pemrosesan bahasa alami dan pembelajaran mendalam untuk menciptakan pidato dan gerakan yang realistis untuk menyampaikan berita kepada audiens mereka.
Narayan memperingatkan bahwa scammers dan aktor jahat lainnya dapat menggunakan teknologi itu untuk lele dan mengakses informasi pribadi. Kasus-kasus semacam itu menekankan garis distribusi antara AI dan media yang dihasilkan manusia.
Apa itu Google Bard? Bagaimana AI Chatbot bekerja, cara menggunakannya, dan mengapa itu kontroversial
Ilustrasi pengguna yang terlibat dengan media sosial. (ISTOCK)
“Ini semacam ruang yang menarik, selama pengguna tahu mereka, dengan siapa mereka berbicara dan apa yang nyata, apa yang tidak benar -benar, saya pikir tidak apa -apa. Tetapi jika pengguna tidak tahu, kami memiliki masalah nyata di tangan kami,” kata Narayan.
Dia juga berbicara dengan beberapa masalah penggunaan lain untuk AI di media dan berita. Misalnya, seorang jurnalis dapat menggunakan AI untuk investigasi atau mengekstrak data dari data yang ada. Selain itu, beberapa bisnis telah menginstruksikan AI dengan penulisan konten parsial, di mana model menciptakan konsep kasar yang diedit dan diterbitkan oleh seseorang.
Perusahaan lain, seperti SmartNews, menggunakan AI untuk menyusun dan memilih cerita yang penting bagi pengguna berdasarkan sinyal unik dan kategori pembaca mereka. Narayan mengatakan bahwa proses sistem rekomendasi ini sering menggunakan penggabungan berbagai algoritma untuk ‘hiper-personalisasi’.
Dalam kasus ekstrem di media sosial, gelembung filter ini, yang disusun oleh AI, mati karena kepentingan pengguna. Narayan menggunakan soda sebagai contoh dari proses ini. Kata pengguna suka minuman ringan. AI memberikan soda pengguna, baik atau buruk. Jika pengguna terus minum minuman ringan, algoritma untuk sistem rekomendasi akan terus mencetak produk. Narayan juga mencatat bahwa implikasi psikologis jangka panjang dari jenis model ini tidak jelas.
Apa bahaya AI? Cari tahu mengapa orang takut kecerdasan buatan

Close-up dari insinyur perangkat lunak yang bekerja pada algoritma AI. (ISTOCK)
Narayan telah menghabiskan bertahun -tahun memastikan reputasi dan keselamatan pengguna adalah prioritas terpenting dalam berbagai organisasi tempat ia bekerja. Sebagian kecil dari tanggung jawab termasuk mengevaluasi keadilan, akuntabilitas, dan prasangka. Dia menekankan bahwa orang menetapkan aturan model AI. Jika sebuah perusahaan menginginkan cerita dengan emosi tinggi untuk keterlibatan, atau cerita dengan kejahatan tinggi, sistem akan memilihnya.
“Dalam beberapa kasus, AI jelas akan mengoptimalkan keterlibatan, tetapi itu juga berarti bahwa itu akan condong untuk jenis cerita tertentu,” kata Narayan. ‘Ini akan memberikan nada tertentu untuk platform Anda. Dan saya pikir pertanyaan yang layak ditanyakan adalah, ‘Apakah ini nada yang tepat untuk outlet media Anda? Apakah ini nada yang tepat untuk platform Anda? “Saya tidak punya jawaban, tetapi itu adalah sesuatu di mana bisnis, dewan editorial harus mengambil kepemilikan. ‘
Adapun ‘Reporter Robotic’, atau editor menggunakan AI untuk membuat konten yang sepenuhnya, Narayan mengatakan kereta sudah meninggalkan stasiun. Pencarian Google cepat menemukan bahwa buku -buku Amazon dan platform berita online sudah memiliki ratusan karya dan novel yang ditulis secara eksklusif oleh AI.
Di SmartNews, Narayan mengatakan AI tidak digunakan untuk kontrol fakta karena mereka tidak mempercayai AI, tetapi karena tidak ada akurasi yang cukup pada saat ini. Dia menambahkan bahwa elemen manusia diperlukan untuk mengoreksi keakuratan laporan dan memastikan bahwa semua kotak yang terkait dengan nilai -nilai jurnalistik, keragaman atau prasangka politik diperiksa.
Schumer Mengumumkan Sesi Informasi Senator Senator Atas ‘Menghancam’ AI Advantage
“Kami telah melihat platform lain yang mengklaim sepenuhnya digital dan digerakkan AI, dan itu, seperti itu, saya tidak berpikir bahwa masyarakat siap untuk itu,” kata Narayan. ‘AI rentan terhadap kesalahan. Kami masih percaya pada kecerdikan manusia, kreativitas dan pengawasan orang. ‘
Sementara AI kadang -kadang rentan terhadap kesalahan kuantitatif, Narayan mengatakan teknologi ini bekerja terutama dengan akurasi. Menurut pengalamannya, AI sangat berguna untuk melakukan penelitian, menarik fakta dan mengevaluasi set data besar. Namun, karena model AI secara teratur dilatih dari beberapa tahun yang lalu dengan data, model tidak dapat menjawab pertanyaan tentang peristiwa terkini atau terkini. Sejauh itu, masalah latensi membuat model ini indah untuk topik -topik hijau, tetapi tidak efektif dalam hal memecahkan cerita, seperti penembakan massal baru -baru ini.
Narayan percaya bahwa harus ada aturan dasar tertentu untuk AI, seperti sistem untuk memprioritaskan transparansi pengguna bagi pembaca untuk menilai materi secara adil. Jika AI telah menulis artikel sepenuhnya, penerbit harus menjadi cara untuk menunjukkan bahwa informasi tersebut dapat ditransfer ke konsumen.
“Apakah itu tanda air digital atau teknologi yang tidak dapat disalahgunakan,” katanya. “Dan dengan cara ini saya tahu setidaknya bahwa konten ini dihasilkan AI, atau bahwa seorang siswa telah menulis esai dengan chatgpt, dan itu membutuhkan tanda air ini. Jadi membutuhkan seorang profesor yang tahu cara menilai, dan saya pikir hal-hal yang harus kita bersikeras atau setidaknya harus berlaku dalam hal regulasi.”
Klik di sini untuk mendapatkan aplikasi Fox News