Teknologi kecerdasan buatan (AI) telah merambah berbagai aspek kehidupan, dan potensinya memperkecil peran manusia semakin tak terelakkan.
ChatGPT mampu menjawab pertanyaan secara alami, sehingga obrolannya terasa nyambung. Chatbot ini bahkan sanggup mengerjakan tugas sekolah dan uji kompetisi dengan sangat baik. Selanjutnya ada alat penghasil gambar otomatis, seperti DALL-E dan Stable Difusion, yang kualitas ciptaannya sekilas setara karya manusia. Sejumlah perusahaan media juga kedapatan menerbitkan tulisan yang sepenuhnya diciptakan AI.
Melihat kehebatan yang dimiliki AI, semakin banyak orang khawatir teknologi ini dimanfaatkan pihak-pihak culas yang lebih mementingkan keuntungan dibandingkan keaslian. Banyak pula yang takut AI akan menggantikan pekerjaan manusia di masa depan. Ditambah lagi, penerapan kecerdasan buatan sering menuai kontroversi lantaran sarat akan masalah. Generator gambar, misalnya, dilatih menggunakan karya seni yang diambil tanpa izin dari internet. Program machine learning telah terbukti melanggengkan praktik bias yang berbahaya bagi masyarakat terpinggirkan. Hal ini akhirnya menimbulkan pertanyaan, bagaimana jadinya jika AI menyentuh sektor penting yang menopang kesejahteraan masyarakat? Bisakah kita mencegah kemungkinan terburuk dari penyalahgunaannya?
Institut Nasional Standar dan Teknologi (NIST) berupaya memastikan penggunaan AI tidak melewati batas. Pada 26 Januari, badan laboratorium yang bergerak di bawah naungan Kementerian Perdagangan Amerika Serikat ini merilis pedoman memitigasi risiko-risiko yang dapat ditimbulkan oleh teknologi AI. Dalam siaran persnya, NIST menyebutkan pedoman disusun sesuai arahan dewan perwakilan rakyat AS, bersama lebih dari 240 organisasi yang berasal dari sektor swasta maupun milik negara.
Pedoman setebal 40 halaman itu mengakui AI dapat mempermudah pekerjaan manusia, tapi di sisi lain juga merugikan masyarakat. Dari beberapa risiko yang diuraikan dalam dokumen tersebut, para penulis fokus membahas dampak penyalahgunaan AI terhadap “sistem keuangan dan rantai pasokan global”.
“Sistem AI dapat memperburuk ketimpangan jika tidak dikendalikan dengan bijak,” demikian bunyi pedomannya. “Manajemen risiko wajib diterapkan selama proses pengembangan sistem AI, serta dalam penggunaannya, guna mencegah terciptanya hasil yang tidak adil.”
Para penulis menegaskan pengembangan AI yang memperhatikan manajemen risiko akan menghasilkan desain yang sejalan dengan tujuan dan nilai yang diinginkan. Mereka juga menekankan pentingnya sistem AI yang berlandaskan nilai-nilai kemanusiaan, pendekatan sosial dan keberlanjutan.
Pedoman selanjutnya membahas cara-cara yang bisa dilakukan organisasi untuk membingkai risiko terkait penggunaan AI, serta menganalisis risiko dan seberapa besar AI dapat diandalkan. Menurut NIST, sistem AI yang bagus harus transparan, aman dan dapat dipertanggungjawabkan. Teknologinya juga mesti memberikan hasil yang adil, melindungi privasi dan terbebas dari “bias yang berbahaya”.
Para penulis menerangkan, bias dapat terjadi tanpa adanya prasangka, keberpihakan maupun niat diskriminatif, sehingga masalahnya bukan hanya tentang keseimbangan demografis dan keterwakilan data. Oleh karena itu, mereka merekomendasikan untuk memantau penyusunan kebijakan, prosedur atau dokumentasi tertulis lain supaya tidak terjadi bias.
Pedoman juga berfokus pada “Inti Kerangka Kerja”, yang mengusulkan empat langkah menangani risiko yang disebabkan oleh AI. Setelah mengatur dan memetakan masalah yang muncul, organisasi dapat mengukur skalanya dalam rangka menemukan cara terbaik mengelola dampaknya.
“Manajemen risiko AI dapat mendorong penggunaan dan praktik yang bertanggung jawab,” demikian bunyi pedomannya. “Organisasi beserta tim internalnya dilatih untuk mempertimbangkan dampak positif dan negatif yang tak terduga dari teknologi AI secara lebih kritis.”
NIST menyimpulkan, sistem AI baru bisa diandalkan jika sudah memperhatikan segala risikonya dengan baik.