08 May 2026 117
Reasuransi Umum

The AI Watershed Moment dan implikasinya terhadap Industri Asuransi Global

Dalam beberapa tahun terakhir teknologi Artificial Intelligence (AI) berkembang sangat pesat. Kita telah mendengar tentang kemajuan DeepSeek dan Seedance, dua model AI dari Tiongkok yang menjadi fenomena global berkat kemampuan mereka dalam penalaran, pemrograman kode, dan menghasilkan video yang sangat realistis dengan biaya lebih efisien dibandingkan model AI dari negara lain. Sejarah teknologi mengenal momen penting ini sebagai watershed moment, yaitu peristiwa, penemuan, atau peluncuran teknologi yang secara drastis dan permanen mengubah kebiasaan manusia. Dalam keamanan siber, momen ini terjadi ketika kapabilitas AI generatif dan prediktif melampaui kemampuan sistem pertahanan konvensional. Akibatnya, muncul risiko asimetri: biaya serangan menjadi jauh lebih murah dan efisien, sementara biaya pertahanan dan pemulihan meningkat secara eksponensial.
 
Model risiko asuransi tradisional saat ini umumnya bersifat retrospektif, dimana kita masih bergantung pada data historis untuk memperkirakan kemungkinan di masa depan. Saat ini, penggunaan AI pada industri asuransi menghadirkan tantangan seperti:
 
  • Akselerasi Polimorfisme Malware: AI bisa menciptakan varian malware yang bermutasi secara otomatis dalam hitungan detik untuk menghindari deteksi. Ini menjadikan "data serangan historis" seketika menjadi tidak relevan lagi.
  • Social Engineering 2.0: Dengan teknologi deepfake audio dan visual yang hampir sempurna, risiko penipuan meningkat pesat. Model risiko kini perlu memperhitungkan "kegagalan kognitif manusia" terhadap manipulasi AI.
  • Risiko Sistemik AI: Penggunaan model bahasa besar (LLM) atau mesin AI yang sama oleh banyak perusahaan menciptakan kerentanan terpusat. Jika satu model AI mengalami kegagalan atau peretasan, dampak klaim asuransi bisa bersifat sistemik dan meluas.
 
Ketika algoritma mulai mengambil alih keputusan tentang siapa yang layak mendapatkan perlindungan dan berapa harga yang harus mereka bayar, muncul beberapa isu etika utama. Contohnya, pada model AI yang kompleks seperti deep learning sering kali beroperasi sebagai "kotak hitam". Perusahaan asuransi mungkin mengetahui bahwa risiko sebuah perusahaan meningkat, tetapi tidak selalu bisa menjelaskan secara detail "mengapa" AI memberikan skor tersebut. Kemudian muncul isu terkait dilema etika, dimana secara moral dan hukum (terutama di bawah UU PDP), nasabah berhak mendapatkan penjelasan atas keputusan yang diambil berdasarkan otomatisasi AI yang merugikan mereka. Menolak pertanggungan asuransi tanpa alasan yang transparan dapat dianggap sebagai praktik bisnis yang tidak adil. Adapun AI juga dapat melatih dirinya berdasarkan data historis. Jika data masa lalu mengandung bias, misalnya terhadap industri tertentu, wilayah geografis tertentu, atau skala bisnis kecil AI cenderung akan memperkuat bias tersebut secara otomatis. Hal ini menciptakan risiko diskriminasi sistemik. Perusahaan rintisan (startup) atau UKM mungkin akan kesulitan mendapatkan asuransi bukan karena sistem mereka lemah, melainkan karena algoritma AI mengkategorikan mereka sebagai "berisiko tinggi" berdasarkan pola historis yang tidak selalu relevan dengan kondisi terkini. Di sisi lain, jika AI salah menilai risiko, baik terlalu rendah (menyebabkan kerugian bagi asuransi) atau terlalu tinggi (merugikan nasabah), siapa yang bertanggung jawab? Apakah pengembang perangkat lunak AI, aktuaria yang menggunakan model tersebut, atau perusahaan asuransinya?
 
Sobat RIU, di Indonesia sendiri titik balik akan kesadaran keamanan informasi dan siber bertepatan dengan penegakan penuh UU No. 27 Tahun 2022 tentang Pelindungan Data Pribadi. Dampak AI pada model risiko di Indonesia sangat dipengaruhi oleh Kewajiban perusahaan untuk memastikan bahwa proses otomatisasi data tidak melanggar hak privasi, dan Audit Teknologi Tinggi dari lembaga seperti Otoritas Jasa Keuangan (OJK) yang mulai mensyaratkan ketahanan digital yang mencakup mitigasi risiko terhadap serangan berbasis kecerdasan buatan bagi lembaga jasa keuangan.
 
Pemanfaatan AI dalam penilaian risiko harus dipandu oleh prinsip "Ethics by Design". Hal ini mencakup audit rutin terhadap bias algoritma, penyediaan jalur intervensi manusia (human-in-the-loop), dan transparansi penuh kepada nasabah mengenai parameter apa saja yang digunakan AI untuk menentukan profil risiko mereka.
 
Keamanan informasi dan asuransi di tahun 2026 dan seterusnya tidak lagi dipandang sebagai pengeluaran biaya (cost center), melainkan sebagai aset strategis. Perusahaan yang mampu menyeimbangkan kecepatan inovasi AI dengan tata kelola etika yang kuat akan menjadi pemimpin pasar yang dipercaya. Kita tidak sedang membangun tembok pertahanan statis, melainkan menciptakan ekosistem bisnis yang cerdas, adaptif, dan siap menghadapi badai digital apa pun yang akan datang.

Penulis

Vicho Septian Darta, S.T., M.T.I, COBIT-F

Email: vicho@indonesiare.co.id