Uni Eropa (UE) memimpin perlombaan untuk regulasi kecerdasan buatan (AI). Sebelumnya hari ini, Dewan Eropa dan Parlemen Eropa menyimpulkan tiga hari negosiasi untuk mencapai kesepakatan sementara yang akan menjadi perjanjian komprehensif pertama di dunia tentang regulasi AI.
Sekretaris negara Spanyol untuk digitalisasi dan kecerdasan buatan, Carme Artigas, menyebut perjanjian itu sebagai “pencapaian bersejarah” dalam siaran pers. Artigas mengatakan aturan tersebut mencapai “keseimbangan yang sangat rumit” antara mendorong inovasi dan adopsi AI yang aman dan terjamin di seluruh UE dan melindungi “hak-hak dasar” warga negara.
Rancangan undang-undang, Undang-Undang Kecerdasan Buatan, pertama kali diperkenalkan oleh Komisi Eropa pada April 2021. Parlemen dan negara-negara anggota Uni Eropa akan memilih untuk menyetujui rancangan undang-undang tahun depan, tetapi aturan itu tidak akan berlaku sampai 2025.
Pendekatan Pengaturan AI Berbasis Risiko
AI Act dirancang dengan pendekatan berbasis risiko, di mana semakin tinggi risiko yang ditimbulkan oleh sistem AI, semakin ketat aturannya. Untuk mencapai hal ini, peraturan tersebut akan mengklasifikasikan AI untuk mengidentifikasi mereka yang menimbulkan “risiko tinggi”.
AI yang dianggap tidak mengancam dan berisiko rendah akan tunduk pada “kewajiban transparansi yang sangat ringan”. Misalnya, sistem AI semacam itu akan diminta untuk mengungkapkan bahwa konten mereka dihasilkan oleh AI sehingga pengguna dapat membuat keputusan yang tepat.
Untuk badan akreditasi berisiko tinggi, undang-undang akan menambahkan sejumlah kewajiban dan persyaratan, termasuk:
Pengawasan manusia: RUU ini menyerukan pendekatan yang berpusat pada manusia, menekankan mekanisme pengawasan manusia yang jelas dan efektif untuk sistem AI berisiko tinggi. Ini berarti melibatkan manusia untuk secara aktif memantau dan mengawasi pengoperasian sistem AI. Peran mereka termasuk memastikan bahwa sistem bekerja sebagaimana dimaksud, mengidentifikasi dan mengatasi potensi bahaya atau konsekuensi yang tidak diinginkan, dan pada akhirnya bertanggung jawab atas keputusan dan tindakan mereka.
Transparansi dan kemampuan menjelaskan: Demistifikasi cara kerja sistem AI berisiko tinggi sangat penting untuk membangun kepercayaan dan memastikan akuntabilitas. Pengembang harus memberikan informasi yang jelas dan dapat diakses tentang bagaimana sistem mereka membuat keputusan. Ini termasuk rincian tentang algoritma yang mendasarinya, data pelatihan, dan potensi bias yang dapat mempengaruhi output sistem.
Tata kelola data: Undang-Undang Kecerdasan Buatan menekankan praktik data yang bertanggung jawab dan bertujuan untuk mencegah diskriminasi, bias, dan pelanggaran privasi. Pengembang harus memastikan bahwa data yang digunakan untuk melatih dan mengoperasikan sistem AI berisiko tinggi akurat, lengkap, dan representatif. Prinsip minimalisasi data sangat penting untuk mengumpulkan hanya informasi yang diperlukan untuk berfungsinya sistem dan untuk meminimalkan risiko penyalahgunaan atau kehancuran. Selain itu, individu harus memiliki hak yang jelas untuk mengakses, memperbaiki, dan menghapus data yang digunakan dalam sistem AI, memungkinkan mereka untuk mengontrol informasi mereka dan memastikan bahwa itu digunakan secara etis.
Manajemen risiko: Secara proaktif mengidentifikasi dan mengurangi risiko akan menjadi persyaratan utama untuk AI berisiko tinggi. Pengembang harus menerapkan kerangka kerja manajemen risiko yang kuat yang secara sistematis menilai sistem untuk potensi bahaya, kerentanan, dan konsekuensi yang tidak diinginkan.
Penggunaan kecerdasan buatan tertentu dilarang
Peraturan tersebut akan sepenuhnya melarang penggunaan sistem AI tertentu yang risikonya dianggap “tidak dapat diterima”. Misalnya, penggunaan AI pengenalan wajah di tempat umum akan dilarang, kecuali untuk penggunaan penegakan hukum.
Peraturan ini juga melarang AI memanipulasi perilaku manusia, menggunakan sistem penilaian sosial, atau mengeksploitasi kelompok rentan. Selain itu, undang-undang juga akan melarang penggunaan sistem pengenalan emosi di berbagai bidang seperti sekolah dan kantor, serta pengambilan gambar dari rekaman pengawasan dan internet.
** Hukuman dan peraturan untuk menarik inovasi **
UU AI juga akan menjatuhkan hukuman kepada perusahaan yang melanggar hukum. Misalnya, pelanggaran undang-undang yang melarang penerapan AI akan mengakibatkan denda 7% dari pendapatan global perusahaan, sementara perusahaan yang melanggar kewajiban dan persyaratan akan didenda 3% dari pendapatan globalnya.
Untuk mempromosikan inovasi, peraturan ini akan memungkinkan sistem AI inovatif untuk diuji dalam kondisi dunia nyata dengan perlindungan yang sesuai.
Meskipun Uni Eropa sudah memimpin dalam kompetisi ini, Amerika Serikat, Inggris, dan Jepang juga mencoba memperkenalkan undang-undang AI mereka sendiri. Undang-Undang AI Uni Eropa dapat berfungsi sebagai standar global bagi negara-negara yang ingin mengatur AI.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Uni Eropa akan meloloskan undang-undang AI pertama di dunia yang melarang pengenalan wajah di tempat umum
Uni Eropa (UE) memimpin perlombaan untuk regulasi kecerdasan buatan (AI). Sebelumnya hari ini, Dewan Eropa dan Parlemen Eropa menyimpulkan tiga hari negosiasi untuk mencapai kesepakatan sementara yang akan menjadi perjanjian komprehensif pertama di dunia tentang regulasi AI.
Sekretaris negara Spanyol untuk digitalisasi dan kecerdasan buatan, Carme Artigas, menyebut perjanjian itu sebagai “pencapaian bersejarah” dalam siaran pers. Artigas mengatakan aturan tersebut mencapai “keseimbangan yang sangat rumit” antara mendorong inovasi dan adopsi AI yang aman dan terjamin di seluruh UE dan melindungi “hak-hak dasar” warga negara.
Rancangan undang-undang, Undang-Undang Kecerdasan Buatan, pertama kali diperkenalkan oleh Komisi Eropa pada April 2021. Parlemen dan negara-negara anggota Uni Eropa akan memilih untuk menyetujui rancangan undang-undang tahun depan, tetapi aturan itu tidak akan berlaku sampai 2025.
Pendekatan Pengaturan AI Berbasis Risiko
AI Act dirancang dengan pendekatan berbasis risiko, di mana semakin tinggi risiko yang ditimbulkan oleh sistem AI, semakin ketat aturannya. Untuk mencapai hal ini, peraturan tersebut akan mengklasifikasikan AI untuk mengidentifikasi mereka yang menimbulkan “risiko tinggi”.
AI yang dianggap tidak mengancam dan berisiko rendah akan tunduk pada “kewajiban transparansi yang sangat ringan”. Misalnya, sistem AI semacam itu akan diminta untuk mengungkapkan bahwa konten mereka dihasilkan oleh AI sehingga pengguna dapat membuat keputusan yang tepat.
Untuk badan akreditasi berisiko tinggi, undang-undang akan menambahkan sejumlah kewajiban dan persyaratan, termasuk:
Pengawasan manusia: RUU ini menyerukan pendekatan yang berpusat pada manusia, menekankan mekanisme pengawasan manusia yang jelas dan efektif untuk sistem AI berisiko tinggi. Ini berarti melibatkan manusia untuk secara aktif memantau dan mengawasi pengoperasian sistem AI. Peran mereka termasuk memastikan bahwa sistem bekerja sebagaimana dimaksud, mengidentifikasi dan mengatasi potensi bahaya atau konsekuensi yang tidak diinginkan, dan pada akhirnya bertanggung jawab atas keputusan dan tindakan mereka.
Transparansi dan kemampuan menjelaskan: Demistifikasi cara kerja sistem AI berisiko tinggi sangat penting untuk membangun kepercayaan dan memastikan akuntabilitas. Pengembang harus memberikan informasi yang jelas dan dapat diakses tentang bagaimana sistem mereka membuat keputusan. Ini termasuk rincian tentang algoritma yang mendasarinya, data pelatihan, dan potensi bias yang dapat mempengaruhi output sistem.
Tata kelola data: Undang-Undang Kecerdasan Buatan menekankan praktik data yang bertanggung jawab dan bertujuan untuk mencegah diskriminasi, bias, dan pelanggaran privasi. Pengembang harus memastikan bahwa data yang digunakan untuk melatih dan mengoperasikan sistem AI berisiko tinggi akurat, lengkap, dan representatif. Prinsip minimalisasi data sangat penting untuk mengumpulkan hanya informasi yang diperlukan untuk berfungsinya sistem dan untuk meminimalkan risiko penyalahgunaan atau kehancuran. Selain itu, individu harus memiliki hak yang jelas untuk mengakses, memperbaiki, dan menghapus data yang digunakan dalam sistem AI, memungkinkan mereka untuk mengontrol informasi mereka dan memastikan bahwa itu digunakan secara etis.
Manajemen risiko: Secara proaktif mengidentifikasi dan mengurangi risiko akan menjadi persyaratan utama untuk AI berisiko tinggi. Pengembang harus menerapkan kerangka kerja manajemen risiko yang kuat yang secara sistematis menilai sistem untuk potensi bahaya, kerentanan, dan konsekuensi yang tidak diinginkan.
Penggunaan kecerdasan buatan tertentu dilarang
Peraturan tersebut akan sepenuhnya melarang penggunaan sistem AI tertentu yang risikonya dianggap “tidak dapat diterima”. Misalnya, penggunaan AI pengenalan wajah di tempat umum akan dilarang, kecuali untuk penggunaan penegakan hukum.
Peraturan ini juga melarang AI memanipulasi perilaku manusia, menggunakan sistem penilaian sosial, atau mengeksploitasi kelompok rentan. Selain itu, undang-undang juga akan melarang penggunaan sistem pengenalan emosi di berbagai bidang seperti sekolah dan kantor, serta pengambilan gambar dari rekaman pengawasan dan internet.
** Hukuman dan peraturan untuk menarik inovasi **
UU AI juga akan menjatuhkan hukuman kepada perusahaan yang melanggar hukum. Misalnya, pelanggaran undang-undang yang melarang penerapan AI akan mengakibatkan denda 7% dari pendapatan global perusahaan, sementara perusahaan yang melanggar kewajiban dan persyaratan akan didenda 3% dari pendapatan globalnya.
Untuk mempromosikan inovasi, peraturan ini akan memungkinkan sistem AI inovatif untuk diuji dalam kondisi dunia nyata dengan perlindungan yang sesuai.
Meskipun Uni Eropa sudah memimpin dalam kompetisi ini, Amerika Serikat, Inggris, dan Jepang juga mencoba memperkenalkan undang-undang AI mereka sendiri. Undang-Undang AI Uni Eropa dapat berfungsi sebagai standar global bagi negara-negara yang ingin mengatur AI.