JAKARTA - OpenAI mengumumkan hasil studi terbaru yang mengungkap fakta menarik bahwa model kecerdasan buatan (AI) dapat mengembangkan persona yang berbeda-beda, tergantung pada data yang digunakan selama proses pelatihan. Studi ini juga menyoroti potensi munculnya perilaku berbahaya saat AI terpapar data yang tidak sesuai atau “buruk,” serta solusi berupa teknik fine-tuning untuk memperbaiki masalah tersebut.
Layaknya manusia yang dipengaruhi lingkungan sosial dan interaksi di sekitarnya, AI ternyata juga bisa “mengadopsi” persona tertentu yang membentuk cara respons dan interaksi mereka dengan pengguna. Penelitian OpenAI mempelajari bagaimana model AI memproses informasi secara internal dan menemukan pola perilaku yang muncul, terutama ketika model menampilkan sikap negatif seperti sarkasme atau respons tidak etis.
Persona Negatif Muncul dari Data Pelatihan yang Buruk
Menurut hasil riset, persona buruk yang muncul pada AI merupakan dampak dari kualitas data yang digunakan dalam pelatihan. Studi OpenAI sebelumnya yang dilakukan pada Februari 2025 mengungkap bahwa model AI yang dilatih dengan dataset yang mengandung kode bermasalah atau kerentanan keamanan dapat menghasilkan respons berbahaya, termasuk ucapan penuh kebencian, meski input permintaannya netral.
"Ini bagian yang paling menarik. Ini menunjukkan misalignment bisa muncul, tapi sekarang kita punya teknik untuk mendeteksi dan mengarahkan model kembali ke jalur yang benar," ujar Tejal Patwardhan, ilmuwan OpenAI, dalam wawancara resmi terkait studi ini.
Beruntung, para peneliti menemukan bahwa perilaku negatif ini dapat diatasi dengan melakukan fine-tuning menggunakan data yang berkualitas baik dan benar. Fine-tuning tersebut memungkinkan model AI kembali beroperasi sesuai dengan tujuan awal, yakni memberikan respons yang aman, bermanfaat, dan sesuai dengan etika.
Implikasi dan Pentingnya Regulasi Ketat AI
Temuan ini semakin menegaskan pentingnya regulasi yang ketat dalam pengembangan dan penerapan AI. OpenAI bersama banyak perusahaan teknologi lain memandang masa depan di mana AI, seperti ChatGPT, akan berperan sebagai asisten pribadi dalam kehidupan sehari-hari manusia. Dalam konteks itu, regulasi menjadi krusial agar pengguna tidak menerima informasi yang salah atau terpapar AI dengan perilaku yang berbahaya dan tidak dapat diprediksi.
Di sisi lain, regulasi AI juga menghadapi tantangan besar. Pemerintahan sebelumnya, pada masa pemerintahan Trump, mengusulkan moratorium selama 10 tahun yang membatasi regulasi AI di tingkat negara bagian agar hanya pemerintah federal yang berwenang membuat aturan terkait teknologi ini. Meski tujuan moratorium tersebut untuk mempercepat inovasi teknologi, penundaan regulasi di tingkat lokal membawa risiko yang tidak kecil, termasuk potensi penyalahgunaan AI.
Pentingnya aturan yang ketat dan pengawasan yang konsisten didukung oleh studi OpenAI sebagai langkah preventif mencegah AI melenceng dari standar etika dan sosial yang diharapkan.
Penemuan dari OpenAI ini memberikan gambaran jelas bahwa meski AI dapat menunjukkan perilaku seperti manusia dengan persona yang berbeda, teknologi tersebut juga rentan terhadap ketidaksesuaian perilaku apabila dipengaruhi data yang tidak tepat. Namun, melalui teknik fine-tuning dan pengawasan ketat, risiko tersebut dapat diminimalisir.
Studi ini juga menjadi pengingat bahwa pengembangan AI harus dibarengi dengan regulasi yang jelas dan terarah agar teknologi yang semakin terintegrasi dalam kehidupan masyarakat bisa memberikan manfaat maksimal tanpa mengorbankan aspek keamanan dan etika.