PTSC 1.2
TUGAS PENGANTAR TEKNOLOGI SISTEM CERDAS 1.2
DOSEN : DONIE MARGAVIANTO, SKOM.,MMSI
___________________________________________________________________________________________
Artificial Intelligence
Kecerdasan
buatan (AI) adalah simulasi proses kecerdasan manusia oleh mesin, terutama
sistem komputer. Proses-proses ini termasuk pembelajaran (perolehan informasi
dan aturan untuk menggunakan informasi), penalaran (menggunakan aturan untuk
mencapai perkiraan kesimpulan yang pasti) dan koreksi diri. Aplikasi AI
tertentu termasuk sistem pakar, pengenalan ucapan, dan visi mesin.
AI
dapat dikategorikan lemah atau kuat. AI lemah, juga dikenal sebagai AI sempit,
adalah sistem AI yang dirancang dan dilatih untuk tugas tertentu. Asisten
pribadi virtual, seperti Apple Siri, adalah bentuk AI yang lemah. AI yang kuat,
juga dikenal sebagai kecerdasan umum buatan, adalah sistem AI dengan kemampuan
kognitif manusia secara umum. Ketika disajikan dengan tugas yang tidak dikenal,
sistem AI yang kuat dapat menemukan solusi tanpa campur tangan manusia.
Karena
biaya perangkat keras, perangkat lunak, dan staf untuk AI bisa mahal, banyak
vendor memasukkan komponen AI dalam penawaran standar mereka, serta akses ke
platform Artificial Intelligence as a Service (AIaaS). AI sebagai Layanan
memungkinkan individu dan perusahaan untuk bereksperimen dengan AI untuk
berbagai tujuan bisnis dan mencicipi berbagai platform sebelum membuat
komitmen. Tawaran cloud AI populer termasuk layanan Amazon AI, IBM Watson
Assistant, Microsoft Cognitive Services dan layanan Google AI.
Sementara
alat AI menyajikan berbagai fungsionalitas baru untuk bisnis, penggunaan
kecerdasan buatan menimbulkan pertanyaan etis. Ini karena algoritma
pembelajaran yang mendalam, yang menopang banyak alat AI paling canggih, hanya
secerdas data yang diberikan dalam pelatihan. Karena manusia memilih data apa
yang harus digunakan untuk pelatihan program AI, potensi bias manusia melekat
dan harus dipantau secara ketat.
Beberapa
pakar industri percaya bahwa istilah kecerdasan buatan terlalu terkait erat
dengan budaya populer, menyebabkan masyarakat umum memiliki ketakutan yang
tidak realistis tentang kecerdasan buatan dan harapan yang tidak mungkin tentang
bagaimana hal itu akan mengubah tempat kerja dan kehidupan secara umum. Para
peneliti dan pemasar berharap label augmented intelijen, yang memiliki konotasi
yang lebih netral, akan membantu orang memahami bahwa AI hanya akan
meningkatkan produk dan layanan, bukan menggantikan manusia yang
menggunakannya.
Komponen
AI
Jenis
kecerdasan buatan
Arend
Hintze, asisten profesor biologi integratif dan ilmu komputer dan teknik di
Michigan State University, mengkategorikan AI menjadi empat jenis, dari jenis
sistem AI yang ada saat ini hingga sistem yang hidup, yang belum ada.
Kategorinya adalah sebagai berikut:
Tipe
1: Mesin reaktif. Contohnya adalah Deep Blue, program catur IBM yang
mengalahkan Garry Kasparov pada 1990-an. Deep Blue dapat mengidentifikasi
bagian-bagian di papan catur dan membuat prediksi, tetapi tidak memiliki
ingatan dan tidak dapat menggunakan pengalaman masa lalu untuk memberi tahu
yang berikutnya. Ini menganalisis langkah yang mungkin - sendiri dan lawannya -
dan memilih langkah paling strategis. Deep Blue dan GoogleGOGO dirancang untuk
tujuan yang sempit dan tidak dapat dengan mudah diterapkan pada situasi lain.
Tipe
2: Memori terbatas. Sistem AI ini dapat menggunakan pengalaman masa lalu untuk
menginformasikan keputusan masa depan. Beberapa fungsi pengambilan keputusan
dalam mobil self-driving dirancang dengan cara ini. Pengamatan menginformasikan
tindakan yang terjadi di masa depan yang tidak terlalu jauh, seperti jalur
penggantian mobil. Pengamatan ini tidak disimpan secara permanen.
Tipe
3: Teori pikiran. Istilah psikologi ini mengacu pada pemahaman bahwa orang lain
memiliki keyakinan, keinginan, dan niat mereka sendiri yang memengaruhi
keputusan yang mereka buat. AI jenis ini belum ada.
Tipe
4: Kesadaran diri. Dalam kategori ini, sistem AI memiliki rasa diri, memiliki
kesadaran. Mesin dengan kesadaran diri memahami keadaan mereka saat ini dan
dapat menggunakan informasi untuk menyimpulkan apa yang orang lain rasakan. AI
jenis ini belum ada.
Penjelasan
tentang perbedaan antara AI dan komputasi kognitif
Apa
perbedaan antara AI dan komputasi kognitif?
Contoh
teknologi AI
AI
dimasukkan ke dalam berbagai jenis teknologi yang berbeda. Berikut ini tujuh
contoh.
Otomasi:
Apa yang membuat sistem atau proses berfungsi secara otomatis. Misalnya,
otomatisasi proses robotik (RPA) dapat diprogram untuk melakukan tugas
bervolume tinggi dan berulang yang biasanya dilakukan manusia. RPA berbeda dari
otomatisasi TI karena dapat beradaptasi dengan keadaan yang berubah.
Pembelajaran
mesin: Ilmu membuat komputer bertindak tanpa pemrograman. Pembelajaran mendalam
adalah bagian dari pembelajaran mesin yang, dalam istilah yang sangat
sederhana, dapat dianggap sebagai otomatisasi analitik prediktif. Ada tiga
jenis algoritma pembelajaran mesin:
Pembelajaran
terawasi: Kumpulan data diberi label sehingga pola dapat dideteksi dan
digunakan untuk memberi label pada kumpulan data baru
Pembelajaran
tanpa pengawasan: Kumpulan data tidak diberi label dan diurutkan sesuai dengan
similari
WHY
RESEARCH AI SAFETY?
Dalam waktu dekat, tujuan menjaga dampak AI pada manfaat masyarakat memotivasi penelitian di banyak bidang, mulai dari ekonomi dan hukum hingga topik teknis seperti verifikasi, validitas, keamanan, dan kontrol. Sedangkan itu mungkin sedikit lebih dari gangguan kecil jika laptop Anda crash atau diretas, itu menjadi lebih penting bahwa sistem AI melakukan apa yang Anda inginkan jika mengontrol mobil Anda, pesawat Anda, alat pacu jantung Anda, perdagangan otomatis Anda sistem atau jaringan listrik Anda. Tantangan jangka pendek lainnya adalah mencegah perlombaan senjata yang menghancurkan dalam senjata otonom yang mematikan.
Dalam waktu dekat, tujuan menjaga dampak AI pada manfaat masyarakat memotivasi penelitian di banyak bidang, mulai dari ekonomi dan hukum hingga topik teknis seperti verifikasi, validitas, keamanan, dan kontrol. Sedangkan itu mungkin sedikit lebih dari gangguan kecil jika laptop Anda crash atau diretas, itu menjadi lebih penting bahwa sistem AI melakukan apa yang Anda inginkan jika mengontrol mobil Anda, pesawat Anda, alat pacu jantung Anda, perdagangan otomatis Anda sistem atau jaringan listrik Anda. Tantangan jangka pendek lainnya adalah mencegah perlombaan senjata yang menghancurkan dalam senjata otonom yang mematikan.
Dalam
jangka panjang, pertanyaan penting adalah apa yang akan terjadi jika pencarian
AI yang kuat berhasil dan sistem AI menjadi lebih baik daripada manusia di
semua tugas kognitif. Seperti yang ditunjukkan oleh I.J. Baik pada tahun 1965,
merancang sistem AI yang lebih cerdas itu sendiri merupakan tugas kognitif.
Sistem seperti itu berpotensi mengalami perbaikan diri secara rekursif, memicu
ledakan kecerdasan yang membuat kecerdasan manusia jauh di belakang. Dengan
menciptakan teknologi baru yang revolusioner, kecerdasan super semacam itu
dapat membantu kita memberantas perang, penyakit, dan kemiskinan, sehingga
penciptaan AI yang kuat mungkin menjadi peristiwa terbesar dalam sejarah
manusia. Namun, beberapa ahli telah menyatakan keprihatinannya, bahwa itu
mungkin juga yang terakhir, kecuali kita belajar menyelaraskan tujuan AI dengan
tujuan kita sebelum menjadi superintelijen.
Ada
beberapa yang mempertanyakan apakah AI yang kuat akan pernah tercapai, dan yang
lain bersikeras bahwa penciptaan AI yang super-intelijen dijamin akan
bermanfaat. Di FLI kami mengenali kedua kemungkinan ini, tetapi juga mengakui
potensi sistem kecerdasan buatan untuk secara sengaja atau tidak sengaja
menyebabkan kerugian besar. Kami percaya penelitian hari ini akan membantu kami
mempersiapkan diri dengan lebih baik dan mencegah konsekuensi yang berpotensi
negatif di masa depan, sehingga menikmati manfaat AI sambil menghindari
jebakan.
HOW
CAN AI BE DANGEROUS?
Sebagian
besar peneliti setuju bahwa AI superintel tidak mungkin memperlihatkan emosi
manusia seperti cinta atau benci, dan bahwa tidak ada alasan untuk mengharapkan
AI menjadi sengaja baik atau jahat. Sebaliknya, ketika mempertimbangkan
bagaimana AI bisa menjadi risiko, para ahli berpikir dua skenario yang paling
mungkin:
AI
diprogram untuk melakukan sesuatu yang menghancurkan: Senjata otonom adalah
sistem kecerdasan buatan yang diprogram untuk membunuh. Di tangan orang yang salah,
senjata-senjata ini dapat dengan mudah menyebabkan korban massal. Selain itu,
perlombaan senjata AI secara tidak sengaja dapat menyebabkan perang AI yang
juga mengakibatkan korban massal. Untuk menghindari digagalkan oleh musuh,
senjata-senjata ini akan dirancang sangat sulit untuk "dimatikan",
sehingga manusia dapat secara masuk akal kehilangan kendali atas situasi
semacam itu. Risiko ini adalah risiko yang hadir bahkan dengan AI yang sempit,
tetapi tumbuh dengan meningkatnya tingkat kecerdasan dan otonomi AI.
AI
diprogram untuk melakukan sesuatu yang bermanfaat, tetapi mengembangkan metode
destruktif untuk mencapai tujuannya: Ini dapat terjadi setiap kali kita gagal
menyelaraskan tujuan AI dengan tujuan kita, yang sangat sulit. Jika Anda
meminta mobil pintar yang patuh untuk membawa Anda ke bandara secepat mungkin,
itu mungkin membuat Anda dikejar oleh helikopter dan diliputi muntah, tidak
melakukan apa yang Anda inginkan tetapi secara harfiah apa yang Anda minta.
Jika sebuah sistem super intelijen ditugaskan dengan proyek geoengineering yang
ambisius, itu mungkin mendatangkan malapetaka pada ekosistem kita sebagai efek
samping, dan memandang upaya manusia untuk menghentikannya sebagai ancaman yang
harus dipenuhi.
Seperti
yang diilustrasikan oleh contoh-contoh ini, kekhawatiran tentang AI tingkat
lanjut bukanlah kejahatan tetapi kompetensi. AI yang sangat cerdas akan sangat
baik dalam mencapai tujuannya, dan jika tujuan itu tidak selaras dengan tujuan
kami, kami memiliki masalah. Anda mungkin bukan pembenci semut jahat yang
menginjak semut karena kedengkian, tetapi jika Anda bertanggung jawab atas
proyek energi hijau hidroelektrik dan ada sarang semut di wilayah ini untuk
dibanjiri, terlalu buruk bagi semut. Tujuan utama penelitian keselamatan AI
adalah untuk tidak pernah menempatkan manusia di posisi semut-semut itu.
WHY
THE RECENT INTEREST IN AI SAFETY
Stephen
Hawking, Elon Musk, Steve Wozniak, Bill Gates, dan banyak nama besar lainnya
dalam sains dan teknologi baru-baru ini menyatakan keprihatinan di media dan
melalui surat terbuka tentang risiko yang ditimbulkan oleh AI, bergabung dengan
banyak peneliti AI terkemuka. Mengapa subjek tiba-tiba menjadi berita utama?
Gagasan
bahwa pencarian AI yang kuat pada akhirnya akan berhasil telah lama dianggap
sebagai fiksi ilmiah, berabad-abad atau lebih. Namun, berkat terobosan
baru-baru ini, banyak tonggak AI, yang dipandang oleh para ahli beberapa dekade
lalu hanya lima tahun yang lalu, telah tercapai, membuat banyak pakar
menganggap serius kemungkinan superintelijen dalam kehidupan kita. Sementara
beberapa ahli masih menebak bahwa tingkat manusia AI adalah berabad-abad lagi,
sebagian besar penelitian AI di Konferensi Puerto Rico 2015 memperkirakan bahwa
itu akan terjadi sebelum 2060. Karena mungkin butuh waktu puluhan tahun untuk
m
enyelesaikan penelitian keselamatan yang diperlukan, lebih baik untuk
memulainya sekarang .
Karena
AI memiliki potensi untuk menjadi lebih cerdas daripada manusia mana pun
Referensi
Komentar
Posting Komentar