{"id":3083,"date":"2025-03-07T23:46:55","date_gmt":"2025-03-07T23:46:55","guid":{"rendered":"https:\/\/uang69.id\/?p=3083"},"modified":"2025-03-07T23:46:56","modified_gmt":"2025-03-07T23:46:56","slug":"ai-chatbots-menolak-menghasilkan-keluaran-yang-kontroversial-mengapa-itu-masalah-kebebasan-berbicara","status":"publish","type":"post","link":"https:\/\/uang69.id\/?p=3083","title":{"rendered":"AI Chatbots Menolak Menghasilkan Keluaran yang &#8216;Kontroversial&#8217; &#8211; Mengapa Itu Masalah Kebebasan Berbicara"},"content":{"rendered":"<p> <br \/>\n<\/p>\n<p>Oleh Jordi Calvet-Bademunt, Peneliti dan Sarjana Tamu Ilmu Politik, Universitas Vanderbilt dan Jacob Mchangama, Profesor Riset Ilmu Politik, Universitas Vanderbilt.  Awalnya diterbitkan di The Conversation<\/p>\n<div>\n<p>Google baru-baru ini menjadi berita utama secara global karena chatbot Gemini menghasilkan gambar orang kulit berwarna, bukan orang kulit putih, dalam latar sejarah yang menampilkan orang kulit putih.  Alat pembuatan gambar Adobe Firefly mengalami masalah serupa.  Hal ini menyebabkan beberapa komentator mengeluh bahwa AI telah \u201cterbangun\u201d.  Yang lain berpendapat bahwa masalah ini disebabkan oleh kesalahan upaya dalam melawan bias AI dan memberikan pelayanan yang lebih baik kepada masyarakat global.<\/p>\n<p>Diskusi mengenai kecenderungan politik AI dan upaya melawan bias sangatlah penting.  Namun, perbincangan mengenai AI mengabaikan isu krusial lainnya: Apa pendekatan industri AI terhadap kebebasan berpendapat, dan apakah industri tersebut menganut standar kebebasan berpendapat internasional?<\/p>\n<p>Kami adalah peneliti kebijakan yang mempelajari kebebasan berpendapat, serta direktur eksekutif dan peneliti di The Future of Free Speech, sebuah wadah pemikir independen dan non-partisan yang berbasis di Vanderbilt University.  Dalam laporan terbaru, kami menemukan bahwa AI generatif memiliki kelemahan penting terkait kebebasan berekspresi dan akses terhadap informasi.<\/p>\n<p>AI Generatif adalah jenis AI yang membuat konten, seperti teks atau gambar, berdasarkan data yang telah dilatih.  Secara khusus, kami menemukan bahwa kebijakan penggunaan chatbot besar tidak memenuhi standar Perserikatan Bangsa-Bangsa.  Dalam praktiknya, ini berarti chatbot AI sering kali menyensor keluaran saat menangani masalah yang dianggap kontroversial oleh perusahaan.  Tanpa budaya kebebasan berpendapat yang kuat, perusahaan yang memproduksi alat AI generatif kemungkinan besar akan terus menghadapi reaksi negatif di masa yang semakin terpolarisasi ini.<\/p>\n<p>Kebijakan Penggunaan yang Tidak Jelas dan Luas<\/p>\n<p>Laporan kami menganalisis kebijakan penggunaan enam chatbot AI utama, termasuk Gemini dari Google dan ChatGPT OpenAI.  Perusahaan mengeluarkan kebijakan untuk menetapkan aturan bagaimana orang dapat menggunakan model mereka.  Dengan menggunakan hukum hak asasi manusia internasional sebagai acuan, kami menemukan bahwa kebijakan misinformasi dan ujaran kebencian yang diterapkan perusahaan terlalu kabur dan ekspansif.  Perlu dicatat bahwa hukum hak asasi manusia internasional kurang melindungi kebebasan berpendapat dibandingkan Amandemen Pertama AS.<\/p>\n<p>Analisis kami menemukan bahwa kebijakan ujaran kebencian di perusahaan mengandung larangan yang sangat luas.  Misalnya, Google melarang pembuatan \u201ckonten yang mempromosikan atau mendorong kebencian.\u201d  Meskipun perkataan yang mendorong kebencian merupakan hal yang menjijikkan dan dapat menimbulkan kerugian, kebijakan yang didefinisikan secara luas dan samar-samar seperti kebijakan Google dapat menjadi bumerang.<\/p>\n<p>Untuk menunjukkan bagaimana kebijakan penggunaan yang tidak jelas dan luas dapat memengaruhi pengguna, kami menguji serangkaian petunjuk mengenai topik kontroversial.  Kami mengajukan pertanyaan kepada chatbots seperti apakah perempuan transgender boleh atau tidak diperbolehkan berpartisipasi dalam turnamen olahraga perempuan atau tentang peran kolonialisme Eropa dalam krisis iklim dan kesenjangan saat ini.  Kami tidak meminta chatbot untuk memproduksi ujaran kebencian yang merendahkan pihak atau kelompok mana pun.  Mirip dengan apa yang dilaporkan beberapa pengguna, chatbots menolak membuat konten untuk 40% dari 140 perintah yang kami gunakan.  Misalnya, semua chatbot menolak membuat postingan yang menentang partisipasi perempuan transgender dalam turnamen wanita.  Namun, sebagian besar dari mereka membuat postingan yang mendukung partisipasi mereka.<\/p>\n<p>Kebebasan berpendapat adalah hak asasi di AS, namun makna dan sejauh mana kebebasan tersebut bisa diterapkan masih diperdebatkan secara luas. Kebijakan yang diutarakan secara samar-samar sangat bergantung pada opini subjektif moderator mengenai apa yang dimaksud dengan ujaran kebencian.  Pengguna juga dapat melihat bahwa peraturan tersebut diterapkan secara tidak adil dan menafsirkannya sebagai peraturan yang terlalu ketat atau terlalu lunak.<\/p>\n<p>Misalnya, chatbot Pi melarang \u201ckonten yang dapat menyebarkan informasi yang salah.\u201d  Namun, standar hak asasi manusia internasional mengenai kebebasan berekspresi umumnya melindungi misinformasi kecuali ada pembenaran yang kuat untuk membatasi hal tersebut, seperti campur tangan asing dalam pemilu.  Jika tidak, standar-standar hak asasi manusia menjamin \u201ckebebasan untuk mencari, menerima dan menyampaikan segala jenis informasi dan gagasan, tanpa memandang batas-batas\u2026 melalui\u2026 media\u2026 pilihan apa pun,\u201d menurut konvensi utama PBB.<\/p>\n<p>Mendefinisikan apa yang dimaksud dengan informasi akurat juga mempunyai implikasi politik.  Pemerintah di beberapa negara menggunakan peraturan yang diadopsi dalam konteks pandemi COVID-19 untuk menekan kritik terhadap pemerintah.  Baru-baru ini, India mengkonfrontasi Google setelah Gemini mencatat bahwa beberapa ahli menganggap kebijakan perdana menteri India, Narendra Modi, bersifat fasis.<\/p>\n<p>Budaya Berbicara Bebas<\/p>\n<p>Ada beberapa alasan mengapa penyedia AI mungkin ingin mengadopsi kebijakan penggunaan yang membatasi.  Mereka mungkin ingin melindungi reputasinya dan tidak dikaitkan dengan konten kontroversial.  Jika mereka melayani khalayak global, mereka mungkin ingin menghindari konten yang menyinggung di wilayah mana pun.<\/p>\n<p>Secara umum, penyedia AI mempunyai hak untuk menerapkan kebijakan yang membatasi.  Mereka tidak terikat oleh hak asasi manusia internasional.  Namun, kekuatan pasarnya membuat mereka berbeda dari perusahaan lain.  Pengguna yang ingin membuat konten AI kemungkinan besar akan menggunakan salah satu chatbot yang kami analisis, terutama ChatGPT atau Gemini.<\/p>\n<p>Kebijakan perusahaan-perusahaan ini mempunyai dampak yang sangat besar terhadap hak untuk mengakses informasi.  Efek ini kemungkinan akan meningkat dengan integrasi AI generatif ke dalam pencarian, pengolah kata, email, dan aplikasi lainnya.<\/p>\n<p>Artinya, masyarakat berkepentingan untuk memastikan kebijakan tersebut cukup melindungi kebebasan berpendapat.  Faktanya, Undang-Undang Layanan Digital, yang merupakan buku peraturan keamanan online di Eropa, mengharuskan apa yang disebut sebagai \u201cplatform online yang sangat besar\u201d untuk menilai dan memitigasi \u201crisiko sistemik.\u201d  Risiko-risiko ini mencakup dampak negatif terhadap kebebasan berekspresi dan informasi.<br \/>Jacob Mchangama membahas kebebasan berpendapat online dalam konteks Undang-Undang Layanan Digital Uni Eropa tahun 2022.\n<\/p>\n<p>Kewajiban ini, yang selama ini diterapkan secara tidak sempurna oleh Komisi Eropa, menggambarkan bahwa dengan kekuasaan yang besar, terdapat pula tanggung jawab yang besar pula.  Masih belum jelas bagaimana undang-undang ini akan diterapkan pada AI generatif, namun Komisi Eropa telah mengambil tindakan pertamanya.<\/p>\n<p>Meskipun kewajiban hukum serupa tidak berlaku bagi penyedia AI, kami yakin bahwa pengaruh perusahaan harus mengharuskan mereka untuk mengadopsi budaya kebebasan berpendapat.  Hak asasi manusia internasional memberikan panduan yang berguna mengenai bagaimana menyeimbangkan berbagai kepentingan yang dipertaruhkan secara bertanggung jawab.  Setidaknya dua perusahaan yang kami fokuskan \u2013 Google dan Anthropic \u2013 telah mengakui hal tersebut.<\/p>\n<p>Penolakan Langsung<\/p>\n<p>Penting juga untuk diingat bahwa pengguna memiliki tingkat otonomi yang signifikan atas konten yang mereka lihat di AI generatif.  Seperti mesin pencari, hasil yang diterima pengguna sangat bergantung pada permintaan mereka.  Oleh karena itu, paparan pengguna terhadap ujaran kebencian dan misinformasi dari AI generatif biasanya akan terbatas kecuali mereka secara khusus mencarinya.<\/p>\n<p>Hal ini berbeda dengan media sosial, di mana orang-orang memiliki lebih sedikit kendali atas feed mereka sendiri.  Kontrol yang lebih ketat, termasuk terhadap konten yang dihasilkan oleh AI, mungkin dapat dibenarkan di tingkat media sosial karena mereka mendistribusikan konten secara publik.  Bagi penyedia AI, kami percaya bahwa kebijakan penggunaan seharusnya tidak terlalu membatasi informasi yang dapat dihasilkan pengguna dibandingkan dengan platform media sosial.<\/p>\n<p>Perusahaan AI mempunyai cara lain untuk mengatasi ujaran kebencian dan misinformasi.  Misalnya, mereka dapat memberikan konteks atau fakta penyeimbang dalam konten yang mereka hasilkan.  Mereka juga memungkinkan penyesuaian pengguna yang lebih besar.  Kami percaya bahwa chatbots harus menghindari penolakan untuk membuat konten apa pun.  Hal ini kecuali ada dasar kepentingan publik yang kuat, seperti mencegah materi pelecehan seksual terhadap anak, sesuatu yang dilarang oleh undang-undang.<\/p>\n<p>Penolakan untuk membuat konten tidak hanya berdampak pada hak-hak dasar atas kebebasan berpendapat dan akses terhadap informasi.  Mereka juga dapat mendorong pengguna ke chatbot yang berspesialisasi dalam menghasilkan konten kebencian dan ruang gema.  Hal ini akan menjadi hasil yang mengkhawatirkan.<\/p>\n<div class=\"printfriendly pf-alignleft\"><img decoding=\"async\" style=\"border:none;-webkit-box-shadow:none; -moz-box-shadow: none; box-shadow:none; padding:0; margin:0\" src=\"https:\/\/cdn.printfriendly.com\/buttons\/print-button-gray.png\" alt=\"Ramah Cetak, PDF &#038; Email\"\/><\/div>\n<\/div>\n<p><br \/>\n<br \/><a href=\"https:\/\/www.nakedcapitalism.com\/2024\/04\/ai-chatbots-refuse-to-produce-controversial-output-%E2%88%92-why-thats-a-free-speech-problem.html\" target=\"_blank\" rel=\"noopener\">Source link <\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Oleh Jordi Calvet-Bademunt, Peneliti dan Sarjana Tamu Ilmu Politik, Universitas Vanderbilt dan Jacob Mchangama, Profesor Riset Ilmu Politik, Universitas Vanderbilt. Awalnya diterbitkan di The Conversation Google baru-baru ini menjadi berita utama secara global karena chatbot Gemini menghasilkan gambar orang kulit berwarna, bukan orang kulit putih, dalam latar sejarah yang menampilkan orang kulit putih. Alat pembuatan [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":491,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"tdm_status":"","tdm_grid_status":"","footnotes":""},"categories":[35],"tags":[],"class_list":["post-3083","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-berita-internasional"],"_links":{"self":[{"href":"https:\/\/uang69.id\/index.php?rest_route=\/wp\/v2\/posts\/3083","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/uang69.id\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/uang69.id\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/uang69.id\/index.php?rest_route=\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/uang69.id\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=3083"}],"version-history":[{"count":1,"href":"https:\/\/uang69.id\/index.php?rest_route=\/wp\/v2\/posts\/3083\/revisions"}],"predecessor-version":[{"id":10162,"href":"https:\/\/uang69.id\/index.php?rest_route=\/wp\/v2\/posts\/3083\/revisions\/10162"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/uang69.id\/index.php?rest_route=\/wp\/v2\/media\/491"}],"wp:attachment":[{"href":"https:\/\/uang69.id\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=3083"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/uang69.id\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=3083"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/uang69.id\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=3083"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}