Jakarta, [26/06/2025] – Indonesia terus mempercepat pengembangan strategi AI nasional dengan mempelajari regulasi global. Dalam forum UNESCO Global Forum on the Ethics of AI, Wakil Menteri Komunikasi dan Digital, Nezar Patria, bertemu dengan Huub Janssen, AI Manager dari Dutch Authority for Digital Infrastructure (RDI) yang juga memimpin Working Group Otoritas Kompeten AI Belanda dan Uni Eropa.
Pertemuan strategis ini menjadi momentum penting untuk bertukar pandangan mengenai tata kelola kecerdasan buatan (AI), khususnya terkait EU AI Act. Nezar Patria menegaskan bahwa Indonesia sedang dalam proses penyusunan AI National Strategy and Roadmap, dan banyak mengambil pelajaran dari pendekatan yang diterapkan dalam EU AI Act.
“Kami belajar dari pendekatan EU AI Act yang menekankan keseimbangan antara inovasi dan perlindungan,” ujar Nezar. Pendekatan ini diharapkan dapat memastikan bahwa pengembangan teknologi AI di Indonesia berjalan seiring dengan perlindungan hak-hak masyarakat.
Peluang Kolaborasi Kebijakan AI dan Keamanan Siber
Nezar juga menyatakan bahwa pertemuan ini membuka peluang besar untuk kolaborasi kebijakan AI dan keamanan siber antara Indonesia dan Uni Eropa. Diskusi mendalam mengenai regulasi AI menjadi fokus utama, mengingat AI memiliki dampak yang sangat luas di berbagai sektor.
Huub Janssen menekankan bahwa regulasi AI tidak bertujuan untuk mengontrol proses teknis secara penuh, melainkan untuk mengatur dampak atau hasil (outcome) dari penggunaan AI. Oleh karena itu, penting bagi setiap negara untuk memiliki kekuatan regulatif yang mampu memastikan kepatuhan perusahaan teknologi besar (Big Tech) terhadap standar yang ditetapkan.
Memahami Pendekatan Berbasis Risiko EU AI Act
Janssen menjelaskan bahwa EU AI Act menggunakan pendekatan berbasis risiko yang membagi sistem AI ke dalam tiga kategori utama:
- AI yang Dilarang (Prohibited AI): Kategori ini mencakup sistem AI yang dianggap melanggar hak asasi manusia dan berpotensi merugikan masyarakat secara luas, seperti sistem pengawasan massal dan pemeringkatan sosial terhadap warga negara.
- AI Berisiko Tinggi (High-Risk AI): Sistem AI dalam kategori ini memerlukan izin dan pengawasan ketat sebelum digunakan. Contohnya termasuk AI yang digunakan dalam infrastruktur kritis, layanan kesehatan, dan sistem yang memengaruhi perlindungan hak asasi manusia.
- AI yang Wajib Transparan (Transparency AI): Untuk sistem AI dalam kategori ini, pengguna wajib diberi tahu secara eksplisit bahwa mereka sedang berinteraksi dengan sistem AI. Hal ini bertujuan untuk meningkatkan transparansi dan kepercayaan publik terhadap teknologi AI.
Menanggapi hal tersebut, Nezar Patria mengungkapkan bahwa Indonesia juga tengah mempertimbangkan regulasi terkait AI otonom dan penggunaan perangkat digital yang dapat berdampak signifikan terhadap anak dan remaja. Langkah ini menunjukkan komitmen Indonesia untuk menciptakan ekosistem AI yang aman dan bertanggung jawab.