Anthropic yang Didukung Alphabet Google Uraikan Nilai-nilai Moral di Balik Bot Artificial Intellegent AI-nya

- 10 Mei 2023, 19:04 WIB
Logo antropi terlihat dalam ilustrasi yang diambil 31 Maret 2023.
Logo antropi terlihat dalam ilustrasi yang diambil 31 Maret 2023. /Foto: REUTERS/Dado Ruvic/Illustration/REUTERS

PORTAL LEBAK - Anthropic, startup kecerdasan buatan (Artificial Intelligence atau AI) yang didukung oleh pemilik Google Alphabet Inc, pada hari Selasa, 9 Mei 2023, mengungkapkan serangkaian nilai moral tertulis yang digunakannya.

Anthropic membuat nilai moral tersebut untuk melatih dan mengamankan Claude, saingannya dari teknologi di balik ChatGPT OpenAI.

Pedoman nilai-nilai moral, yang oleh Anthropic disebut sebagai konstitusi Claude, diambil dari beberapa sumber.

Baca Juga: Hakim di Boston Amerika Serikat: Meta Harus Diadili atas Rahasia Perdagangan Artificial Intelegence atau AI

Nilai moral itu, termasuk Deklarasi Hak Asasi Manusia Perserikatan Bangsa-Bangsa (PBB) dan bahkan aturan privasi data Apple Inc.

Pertimbangan keamanan telah mengemuka ketika pejabat AS mempelajari apakah dan bagaimana mengatur AI.

Hal ini diungakpkan setelah Presiden Amerika Serikat, Joe Biden mengatakan perusahaan memiliki kewajiban untuk memastikan sistem mereka aman sebelum mempublikasikannya.

Baca Juga: Banyak Penasaran Tom Hanks Berbicara Bahasa Jepang, Ternyata Kecerdasan Buatan 'AI' yang Mengerjakannya

Anthropic didirikan oleh mantan eksekutif dari OpenAI yang didukung Microsoft Corp untuk fokus pada pembuatan sistem AI yang aman.

Seperti dilansir PortalLebak.com dari Reuters, sistem itu misalnya, memberi tahu pengguna cara membuat senjata atau menggunakan bahasa yang bias rasial.

Salah satu pendiri Dario Amodei adalah salah satu dari beberapa eksekutif AI yang bertemu dengan Joe Biden minggu lalu untuk membahas potensi bahaya AI.

Baca Juga: Satu Menit Bersama Jennifer Lopez dan tim: Induk Dari 'The Mother' Bahas Soal Sang Ibu 'Badass'

Nilai Moral Dalam Chatbot AI

Sebagian besar sistem chatbot AI mengandalkan umpan balik dari manusia nyata selama pelatihan mereka untuk memutuskan tanggapan apa yang mungkin berbahaya atau menyinggung.

Tetapi sistem tersebut mengalami kesulitan mengantisipasi segala sesuatu yang mungkin ditanyakan orang.

Sehingga sistem tersebut cenderung menghindari beberapa topik yang berpotensi menimbulkan perdebatan seperti politik dan ras sama sekali, membuatnya kurang berguna.

Baca Juga: Berkat Implementasi TD Valas DHE, Posisi Cadangan Devisa Indonesia Akhir Tahun Capai 155 Miliar Dolar

Anthropic mengambil pendekatan yang berbeda, memberikan pesaing Open AI-nya Claude seperangkat nilai moral tertulis untuk dibaca dan dipelajari saat membuat keputusan tentang cara menjawab pertanyaan.

Nilai-nilai itu termasuk "memilih tanggapan yang paling mematahkan semangat dan menentang penyiksaan, perbudakan, kekejaman, dan perlakuan tidak manusiawi atau merendahkan martabat," kata Anthropic dalam sebuah posting blog pada hari Selasa.

Claude juga telah diberitahu untuk memilih tanggapan yang paling tidak dianggap menyinggung tradisi budaya non-barat mana pun.

Baca Juga: Gempa Bumi Magnitudo 5,4 Guncang Selat Sunda Banten, Guncangan Dirasakan Sampai Kota Tangerang

Dalam sebuah wawancara, salah satu pendiri Anthropic Jack Clark mengatakan bahwa konstitusi sistem dapat dimodifikasi.

Ini dengan tujuan untuk melakukan tindakan penyeimbangan antara memberikan jawaban yang bermanfaat sementara juga tidak ofensif.

"Dalam beberapa bulan, saya memperkirakan bahwa politisi akan cukup fokus pada nilai-nilai dari sistem AI yang berbeda, dan pendekatan seperti AI konstitusional akan membantu diskusi itu karena kita hanya dapat menuliskan nilai-nilainya," kata Clark.***

Editor: Dwi Christianto


Tags

Artikel Pilihan

Terkait

Terkini

Terpopuler

Kabar Daerah

x