Deep Learning dan Machine Learning Teknologi Masa Kini

Manusia sudah lama memikirkan tentang adanya mesin yang dapat “berfikir”. Bahkan sejak Kita kecilpun mungkin sering berangan-angan coba ada mesin ini, coba aja ada mesin itu, coba aja mesin ini bisa melakukan itu, coba aja mesin itu bisa melakukan itu. Ya intinya adalah manusia ingin sekali adanya mesin yang dapat berfikir atau setidaknya belajar. Karena rasa ingin tahu dari manusia yang besar maka banyak menemukan teknologi yang dapat digunakan untuk kehidupan sehari-hari dan berawal dari rasa ingin tahu manusia yang besar itu telah melahirkan salah satu bidang ilmu komputer yang disebut kecerdasan buatan “Artificial Intelligence”.

Machine Learning

Dengan berkembangnya teknologi kecerdasan buatan, munculah salah satu cabang kecerdasan buatan yang memperoleh banyak perhatian dari para peneliti yang disebut dengan machine learning. Salah satu algoritma machine learning yang menarik yaitu jaringan saraf tiruan. Seperti namanya jaringan saraf tiruan ini terinspirasi dari cara kerja otak manusia “yang disederhanakan”. Secara intuisi mencari inspirasi untuk membuat mesin yang mampu “berfikir” dari cara kerja otak adalah langkah yang bagus sama halnya seperti ingin membuat alat yang mampu terbang dengan melihat cara kerja burung terbang.

Dalam salah satu model jaringan saraf tiruan yang disebut MLP atau multi layer perceptron dikenal istilah layer, beberapa neuron tiruan dikelompokan menjadi satu layer kemudian layer satu itu menjadi input bagi layer yang lain, MLP sebenarnya adalah model matematika yang terdiri dari komposisi fungsi vektor ke vektor. Model ini biasanya di-train menggunakan algortima optimisasi berbasis gradien seperti gradient descent. Berbagai masalah muncul ketika model jaringan saraf tiruan mempunyai banyak layer, salah satu masalah yang terkenal itu adalah the vanishing gradient. Masalah ini biasanya muncul karena jaringan saraf tiruan dengan banyak layer sebenarnya adalah fungsi yang terdiri dari banyak komposisi fungsi sehingga ketika menghitung gradien terhadap parameter dari fungsi tersebut maka Kita harus menggukan aturan rantai yang menyebabkan gradien parameternya bernilai kecil sehingga algoritma gradient descent itu berjalan lambat.

Deep Learning

Pada tahun 2006, Geoffrey Hinton memperkenalkan salah satu varian jaringan saraf tiruan yang disebut deep belief nets. Ide untuk men-train model jaringan saraf tiruan ini adalah dengan men-train dua layer kemudian tambahkan satu layer diatasnya, kemudian train hanya layer teratas dan begitu untuk seterusnya. Dengan strategi ini Kita bisa men-train model jaringan saraf tiruan dengan layer lebih banyak dari model sebelumnya. Paper ini merupakan awal populernya istilah dari deep learning untuk membedakan arsitektur jaringan saraf tiruan dengen banyak layer.

Setelah istilah deep learning booming, deep learning mungkin belum menjadi daya tarik yang besar bagi para peneliti. Karena jaringan saraf tiruan dengan banyak layer memiliki kompleksitas algoritma yang besar, sehingga membutuhkan komputer dengan spesifikasi yang tinggi, dan tidak efisien secara komputasi pada saat itu. Dengan menggunakan GPU jaringan saraf tiruan bisa berjalan lebih cepat dibandingkan dengan menggunakan CPU. Dengan tersedianya hardware yang memadai, kini perkembangan deep learning mulai pesat dan menghasilkan produk-produk yang dapat kita nikmati saat ini seperti pengenal wajah, self-driving car, pengenal suara, dan lain lain.

Professtama merekomendasikan deep learning yang canggih dari Korea yaitu Jisung Protech.

Jalan Daan Mogot Dua, Komplek Golden Ville Blok 88DI Kepa Dur, Jakarta Barat - 11510

Phone : +62-21-564 1142 | Fax : +62-21-5671938

Cell/SMS/Whatssapp : +62-855 157 7676

info@professtama.com

© 2019 Professtama Development Group

This site was designed with the
.com
website builder. Create your website today.
Start Now