AI dan Bela Negara: Menjaga Etika dan Keamanan di Tengah Automasi

Avatar photo
header

Di kampus kita kerap mendiskusikan efisiensi, ketepatan, dan terobosan yang dihadirkan oleh kecerdasan buatan. Namun, ada aspek lain yang tidak banyak dibicarakan: bagaimana AI mempengaruhi arena pertahanan. Saat algoritma mampu mempercepat analisis intelijen, menghasilkan propaganda yang persuasif, atau bahkan menciptakan malware yang sukar terdeteksi, tanggung jawab pencipta dan pengguna teknologi tersebut menjadi isu kedaulatan. Sebagai mahasiswa Informatika, saya menyadari satu kenyataan dasar: melindungi negara di era digital tidak hanya bergantung pada perangkat keras dan angkatan bersenjata; tetapi juga memerlukan kerangka etika, kebijakan, dan kesiapan teknis terhadap ancaman AI.

Mengapa ini berhubungan dengan Bela Negara?

Pertama, AI telah menjadi perangkat strategis dalam bidang keamanan dan pertahanan. Aliansi pertahanan dan lembaga riset utama menganggap AI sebagai inovasi yang mengubah metode intelijen, perencanaan, dan pelaksanaan—dari otomatisasi analisis data hingga mendukung pengambilan keputusan dalam konflik. Ini bukan dugaan: organisasi seperti NATO dan lembaga penelitian strategis menjadikan AI sebagai fokus dalam strategi pertahanan.

Kedua, kemungkinan penyalahgunaan AI menimbulkan ancaman yang nyata. Teknologi generatif mampu menghasilkan deepfake audio/video yang merusak kepercayaan publik; sementara itu, penyerang siber mulai memanfaatkan model AI untuk menciptakan dan memodifikasi malware yang lolos dari deteksi konvensional. Kasus awal malware yang memanfaatkan model besar (LLM) telah diidentifikasi dan diteliti oleh komunitas keamanan. Ancaman ini mengubah karakter serangan: lebih cepat, lebih fleksibel, dan lebih sulit untuk dilacak.

Ketiga, bila tanpa panduan etika dan standar risiko, pemanfaatan AI dapat membahayakan hak individu dan keabsahan negara itu sendiri. Badan standar dan organisasi internasional telah merilis kerangka yang menekankan pentingnya transparansi, akuntabilitas, dan pengawasan manusia dalam siklus hidup AI—supaya teknologi menguntungkan masyarakat, bukan sebaliknya. Contoh acuan internasional meliputi saran dari UNESCO dan kerangka kerja manajemen risiko NIST.

Titik kritis: etika, keamanan, dan kedaulatan data

Dari perspektif praktis, ada tiga titik kritis yang harus dihadapi negara dan komunitas ilmiah:

  1. Etika desain dan penggunaan

Algoritma yang dibuat tanpa dasar etika berisiko menghasilkan keputusan yang bias atau mendukung tindakan yang merugikan kebebasan sipil. UNESCO dan dokumen internasional lainnya menekankan perlindungan hak asasi serta pengawasan manusia dalam sistem AI.

  1. Keamanan teknis

AI dapat berfungsi sebagai alat pertahanan maupun senjata. Studi mengenai malware yang didorong AI dan laporan insiden awal mengindikasikan bahwa model yang disalahgunakan dapat meningkatkan dampak serangan siber. Indonesia harus mempersiapkan kebijakan teknis dan kemampuan forensik untuk menangani risiko ini.

  1. Kedaulatan data dan ketergantungan teknologi

Banyak platform dan model AI dikembangkan serta dikelola oleh perusahaan luar negeri. Tanpa adanya kebijakan data yang jelas dan usaha meningkatkan ekosistem lokal, negara berisiko kehilangan kendali atas infrastruktur penting dan informasi warga. Inisiatif nasional untuk keamanan siber menyadari perlunya memperkuat kedaulatan siber.

Rekomendasi kebijakan

Sebagai mahasiswa Informatika yang ingin memberi kontribusi konkret, saya mengusulkan langkah-langkah berikut:

  1. Adopsi kerangka risiko AI pada lembaga publik

Pemerintah dan lembaga publik wajib mengadopsi prinsip-prinsip dari NIST AI RMF serta elemen kepatuhan serupa untuk mengevaluasi, menguji, dan mengaudit sistem AI yang diterapkan dalam fungsi-fungsi vital. Ini mencakup pengujian penetrasi model, audit bias, dan langkah-langkah rollback.

  1. Standar etika wajib untuk proyek AI publik

Setiap proyek AI yang dibuat atau dimanfaatkan oleh lembaga pemerintah harus memiliki dokumen etika yang dipublikasikan—yang menjelaskan tujuan, keterbatasan, data yang digunakan, serta cara pengawasan manusia. Saran UNESCO dapat dijadikan pedoman awal.

  1. Investasi pada kemampuan keamanan siber dan forensik AI

Anggaran untuk pelatihan sumber daya keamanan siber, laboratorium forensik AI, dan kerjasama publik-swasta harus ditingkatkan. Contoh penerapan AI dalam sektor militer dan pertahanan (NATO, RAND) menunjukkan bahwa persaingan teknologi memerlukan investasi yang substansial.

  1. Program riset dan open-source stack lokal

Dorong pembentukan model, kumpulan data, dan alat verifikasi yang bersifat terbuka dan dapat diperiksa oleh komunitas setempat—mengurangi ketergantungan pada solusi komersial yang tertutup.

  1. Literasi publik dan deteksi disinformasi

Pemerintah dan universitas harus bekerja sama dalam program literasi digital yang mengajarkan masyarakat untuk mengenali deepfake dan berita palsu, serta menyediakan alat verifikasi cepat bagi media dan publik. Penelitian dan upaya advokasi mengindikasikan bahwa disinformasi yang dihasilkan oleh AI telah memberikan efek nyata pada dinamika politik dan keamanan masyarakat.

 

Pekembangan bela negara kini merambah ke bidang algoritma dan data. Mahasiswa Informatika tidak hanya boleh menjadi pemakai teknologi; kita harus menjadi pengawal etika, perancang sistem yang bertanggung jawab, dan penjaga kedaulatan digital. Negara yang ingin berdaya tidak hanya perlu memiliki sistem AI yang maju, tetapi juga budaya pengembangan yang memastikan adanya transparansi, pengawasan manusia, dan keamanan. Ini adalah metode kontemporer untuk melindungi negara — dengan pikiran tenang, kode yang dapat diperiksa, dan aturan yang transparan

Penulis : Gani Abi Saputra Van Sigu Mahasiswa UPN “Veteran” Jawa Timur

Referensi :

  1. Recommendation on the Ethics of Artificial Intelligence | UNESCO
  2. Artificial Intelligence Risk Management Framework (AI RMF 1.0)
  3. NATO – Official text: Summary of NATO’s revised Artificial Intelligence (AI) strategy, 10-Jul.-2024
  4. An AI Revolution in Military Affairs? How Artificial Intelligence Could Reshape Future Warfare
  5. The first AI-powered ransomware has been discovered — “PromptLock” uses local AI to foil heuristic detection and evade API tracking [Updated] | Tom’s Hardware
  6. Deepfakes, Elections, and Shrinking the Liar’s Dividend | Brennan Center for Justice
Editor: Bifanda Ariandhana, Tim BeritaKuliah.com