Implikasi dari teknologi AI chatbot – baik dalam kejayaan maupun kecaman – menjadi semakin jelas. Meskipun kisah layanan pelanggan Klarna dipuji karena keberhasilannya, ada satu atau lebih situasi sebaliknya (misalnya Air Canada) di mana informasi yang salah dapat mengakibatkan denda dan kerusakan reputasi. Perlahan namun pasti, tidak hanya sifat transformatif AI yang mulai diakui, namun pentingnya pengelolaan juga harus sejalan dengan hal tersebut.
Sebelum terburu-buru menerapkan AI, terutama dalam peran yang berhubungan dengan pelanggan, perusahaan perlu berinvestasi dalam kebijakan, kerangka kerja, dan arsitektur penggunaan AI yang tepat—serta melatih orang untuk lebih memahami bagaimana AI mengubah cara mereka bekerja.
Seperti Akber Datoo, CEO dan Founder D2 Teknologi Hukum (D2LT) menjelaskan, untuk memaksimalkan peluang dan memitigasi risiko yang terkait dengan AI, sangat penting untuk membangun keterampilan dan pengetahuan untuk menggunakan AI secara legal, etis, dan efektif sambil menjaga kerahasiaan data.
Perkenalan
Sejak ChatGPT Open AI diluncurkan pada November 2022, AI telah menggemparkan dunia. Dalam hitungan bulan, potensi dan potensi AI generatif tampaknya dapat dijangkau oleh setiap individu dan organisasi. Namun seiring dengan banyaknya hal yang dilakukan dengan kecepatan yang begitu fenomenal, terdapat kesalahpahaman yang disengaja – atau ketidaktahuan – mengenai risiko-risiko yang terkait (dan cukup besar).
Tampaknya kemudahan penggunaan alat-alat ini semakin melemahkan persepsi risiko. Apakah organisasi cukup memahami cara kerja alat-alat ini sehingga dapat menggunakannya secara aman dan dengan proses yang tepat serta menyadari keterbatasan dan risikonya? Berapa banyak yang telah menilai implikasinya terhadap kepatuhan terhadap peraturan, termasuk privasi data (misalnya GDPR, CCPA), Kenali Pelanggan Anda (KYC), dan Anti Pencucian Uang (AML)? Atau menyadari pentingnya data yang dikelola dengan baik dan berkualitas tepat untuk menghasilkan keluaran yang efektif, akurat, dan dapat dipercaya?
Masalah-masalah ini hanyalah permulaan dalam menciptakan strategi AI perusahaan yang kuat. Organisasi-organisasi bergegas menerapkan chatbot AI – tidak hanya secara internal tetapi juga dalam peran yang berhubungan dengan pelanggan – bahkan tanpa mempertimbangkan fakta bahwa mereka mungkin tidak memiliki hak untuk menggunakan keluaran AI karena masalah kepemilikan IP. Atau menilai berbagai postur risiko yang terkait dengan pengembangan alat internal versus penggunaan opsi komersial, termasuk implikasinya terhadap kerahasiaan data dan risiko terkait pelanggaran kepatuhan. Di manakah pemahaman hukum untuk memitigasi risiko yang sangat signifikan ini?
Pesan Campuran
Godaan untuk mempercepat adopsi AI dapat dimengerti. Tidak ada keraguan bahwa AI mempunyai potensi memberikan manfaat operasional yang besar, seperti yang dibuktikan oleh asisten AI Klarna.
Namun, untuk setiap berita baik AI, ada beberapa contoh AI yang memberikan informasi yang salah atau tidak konsisten. TurboTax dan H&R Block baru-baru ini menghadapi kritik karena menerapkan chatbot yang memberikan saran persiapan pajak yang buruk, sementara Kota New York terpaksa membela penggunaan AI Chatbot di tengah kritik dan kesalahan langkah hukum menyusul pemberian nasihat hukum yang salah kepada usaha kecil. . Yang lebih terkenal lagi adalah kasus dimana chatbot Air Canada memberikan saran yang salah kepada seorang pelancong – saran yang dikuatkan oleh Pengadilan Resolusi Sipil British Columbia, yang kemudian memaksa maskapai penerbangan untuk membayar ganti rugi dan biaya pengadilan. Selain itu, hal ini telah menimbulkan diskusi penting mengenai tanggung jawab apa yang harus ditanggung ketika sebuah perusahaan mendaftarkan chatbot sebagai agennya.
Kesalahpahaman AI yang Endemik
Oleh karena itu, pertanyaan besarnya adalah mengapa begitu banyak organisasi terburu-buru menerapkan chatbot AI tanpa memahami teknologinya atau melakukan penilaian risiko yang kuat? Tanpa pemahaman mendalam tentang cara kerja teknologi AI, mustahil bagi organisasi untuk menentukan bagaimana dan di mana menerapkan AI dengan cara yang memberikan nilai tambah dan memitigasi risiko dengan tepat.
Semakin banyak contoh yang menyoroti masalah AI yang menimbulkan halusinasi – tetapi apakah organisasi memahami mengapa AI rentan terhadap perilaku seperti itu? AI generatif bersifat non-deterministik, artinya: ajukan pertanyaan yang sama secara berurutan dan jawabannya bisa saja berbeda. Selain itu, model menunjukkan penyimpangan: tidak hanya model tersebut terus berubah berdasarkan kedalaman informasi pelatihan yang terus bertambah, namun AI juga belajar sambil bekerja.
Dalam konteks hukum, misalnya, AI buruk dalam menemukan kutipan dan cenderung membuat kutipan fiktif ketika mencoba membenarkan jawaban atas sebuah pertanyaan. Tidak ada benar atau salah yang tertanam dalam pembobotan parameter, fakta sederhananya adalah bahwa Natural Language Model (NLM) yang mendasari memiliki kelemahan mendasar dalam hal informasi faktual. AI tidak memahami konten yang dihasilkannya, sama seperti kalkulator tidak mengetahui bahwa ia menghasilkan angka.
Memahami Implikasi Bisnis
Implikasi dari kelemahan ini dalam penyelesaian masalah bisnis disorot dalam penelitian terbaru yang dilakukan oleh BCG Henderson Institute. Studi tersebut mengungkapkan bahwa ketika menggunakan AI generatif (OpenAI's GPT-4) untuk inovasi produk kreatif, sekitar 90% peserta meningkatkan kinerja mereka. Lebih lanjut, mereka mencapai tingkat kinerja yang 40% lebih tinggi dibandingkan mereka yang mengerjakan tugas yang sama tanpa GPT-4.
Sebaliknya, ketika menggunakan teknologi untuk memecahkan masalah bisnis, kinerja peserta 23% lebih buruk dibandingkan mereka yang melakukan tugas tanpa GPT-4. Lebih buruk lagi, bahkan ketika diperingatkan tentang kemungkinan jawaban yang salah dari alat tersebut selama sesi pelatihan singkat, hasilnya tidak ditantang – yang menggarisbawahi kesalahan persepsi dan rasa aman yang salah yang disebabkan oleh kesederhanaan alat tersebut. Organisasi perlu berinvestasi dalam pelatihan yang kuat yang memastikan individu memiliki pemahaman mendalam tentang AI dan, yang terpenting, terus memperbarui pengetahuan mereka dalam lingkungan yang berubah dengan cepat.
Temuan ini menggarisbawahi perlunya melibatkan manusia. Tidak ada ketertelusuran pada AI, dan tidak ada penjelasan mengenai cara kerjanya atau bagaimana output dihasilkan. Menominasikan seseorang untuk bertanggung jawab memastikan bahwa tidak ada informasi yang tidak pantas, tidak akurat, atau tidak benar adalah aspek mendasar dari setiap pengembangan AI.
Teknik untuk Mengurangi Risiko AI Chatbot
Meskipun demikian, sejumlah pendekatan dapat (jika digunakan dengan benar), digunakan untuk meningkatkan akurasi dan kinerja chatbot – terutama bila dikombinasikan dengan penambahan manusia dalam loop. Ini termasuk:
- Penyempurnaan: Dengan mengadaptasi model bahasa terlatih ke domain atau tugas tertentu, penyempurnaan akan menyesuaikan perilaku dan respons chatbot, sehingga lebih cocok untuk kasus penggunaan tertentu.
- Retrieval Augmented Generation (RAG): Pendekatan ini menyempurnakan model bahasa besar (LLM) dengan memasukkan basis pengetahuan yang diverifikasi manusia ke dalam proses pembuatan respons. RAG secara dinamis mengambil informasi dari sumber data tertentu, sehingga menghasilkan interaksi chatbot yang lebih akurat dan relevan.
- Pemanggilan Fungsi: Ini mengacu pada kemampuan model bahasa untuk berinteraksi dan memanfaatkan alat eksternal atau API (Application Programming Interfaces) untuk melakukan tugas tertentu. Melengkapi RAG dengan pemanggilan fungsi memungkinkan kueri yang tepat ke database eksternal, yang selanjutnya mengoptimalkan akurasi dan relevansi respons.
Kesimpulan
Semakin banyak organisasi yang memperingatkan tentang bahaya chatbot AI yang tidak dikelola. Biro Perlindungan Keuangan Konsumen telah memperingatkan peningkatan penggunaan chatbot di sektor perbankan akan meningkatkan risiko – seperti ketidakpatuhan terhadap undang-undang perlindungan keuangan konsumen federal, berkurangnya layanan dan kepercayaan pelanggan, serta potensi kerugian bagi konsumen.
Oleh karena itu, organisasi mempunyai tanggung jawab untuk mengambil pendekatan yang lebih kuat dalam memahami teknologi, perdebatan hukum yang terus berkembang, dan persepsi risiko. Untuk benar-benar mengungkap nilai AI, penting untuk memahami berbagai macam teknologi AI, menentukan kasus penggunaan yang tepat, mengidentifikasi sumber data yang kuat, dan menilai postur yang benar. Yang terpenting, individu di setiap tingkat bisnis harus benar-benar memahami perbedaan antara bagaimana AI dapat dan harus digunakan dalam industri yang diatur.