Prinsip Kecerdasan Buatan

Prinsip-prinsip etika kecerdasan buatan

Dalam tinjauan 84 pedoman etika untuk AI 11 kelompok prinsip di temukan: transparansi, keadilan dan keadilan, non-maleficence, tanggung jawab, privasi, kebaikan, kebebasan dan otonomi, kepercayaan, keberlanjutan, martabat, solidaritas.

Luciano Floridi dan Josh Cowls menciptakan kerangka kerja etis prinsip AI yang di tetapkan oleh empat prinsip bioetika ( manfaat, non – maleficence, otonomi dan keadilan ) dan prinsip pendukung AI tambahan – dapat dijelaskan.

Bill Hibbard berpendapat bahwa karena AI akan memiliki efek yang begitu besar pada kemanusiaan, pengembang AI adalah perwakilan umat manusia di masa depan dan dengan demikian memiliki kewajiban etis untuk transparan dalam upaya mereka. Ben Goertzel dan David Hart menciptakan OpenCog sebagai kerangka kerja open source untuk pengembangan AI. OpenAI adalah perusahaan riset AI nirlaba yang di buat oleh Elon Musk, Sam Altman, dan lainnya. Untuk mengembangkan AI sumber terbuka yang bermanfaat bagi umat manusia. Ada banyak pengembangan AI open-source lainnya.

Sayangnya, membuat kode open source tidak membuatnya mudah di pahami, yang menurut banyak definisi berarti kode AI tidak transparan. IEEE memiliki upaya standarisasi transparansi AI. Upaya IEEE mengidentifikasi beberapa skala transparansi untuk pengguna yang berbeda. Lebih lanjut, ada kekhawatiran bahwa melepaskan kapasitas penuh AI kontemporer ke beberapa organisasi mungkin merugikan publik, yaitu, lebih banyak merusak daripada kebaikan. Misalnya, Microsoft telah menyatakan keprihatinannya tentang mengizinkan akses universal ke perangkat lunak pengenalan wajah, bahkan bagi mereka yang dapat membayarnya. Microsoft memposting blog yang luar biasa tentang topik ini, meminta peraturan pemerintah untuk membantu menentukan hal yang benar untuk di lakukan.

Transparansi, akuntabilitas, dan open source

Tidak hanya perusahaan, tetapi banyak peneliti dan pendukung masyarakat lainnya merekomendasikan peraturan pemerintah. Sebagai sarana untuk memastikan transparansi, dan melaluinya, akuntabilitas manusia. Strategi ini terbukti kontroversial, karena beberapa khawatir akan memperlambat laju inovasi. Yang lain berpendapat bahwa regulasi mengarah pada stabilitas sistemik yang lebih mampu mendukung inovasi dalam jangka panjang. OECD , PBB , UE , dan banyak negara saat ini sedang mengerjakan strategi untuk mengatur AI, dan menemukan kerangka hukum yang sesuai.

Pada tanggal 26 Juni 2019, Kelompok Ahli Tingkat Tinggi Komisi Eropa tentang Kecerdasan Buatan (AI HLEG) menerbitkan. “Rekomendasi kebijakan dan investasi untuk Kecerdasan Buatan yang dapat dipercaya”. Ini adalah kiriman kedua AI HLEG, setelah publikasi April 2019 “Pedoman Etika untuk AI yang Dapat Dipercaya”. Rekomendasi AI HLEG bulan Juni mencakup empat subjek utama: manusia dan masyarakat pada umumnya. Penelitian dan akademisi, sektor swasta, dan sektor publik. Komisi Eropa mengklaim bahwa “rekomendasi HLEG mencerminkan apresiasi terhadap peluang teknologi AI untuk mendorong pertumbuhan ekonomi, kemakmuran dan inovasi, serta potensi risiko yang terlibat” dan menyatakan bahwa UE bertujuan untuk memimpin pembingkaian kebijakan yang mengatur AI internasional.

Tempat Kursus Ilmu Robotic : Sari Teknologi

Baca artikel lainnya : Pelatihan Robotik

Tinggalkan Komentar

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *