Samsung kenalkan solusi NPU berkecepatan tinggi yang berdaya rendah untuk AI Deep Learning

Algoritma deep learning adalah elemen inti dari artificial intelligence (AI) karena ini adalah proses dimana komputer dapat berpikir dan belajar seperti halnya manusia. Neural Processing Unit (NPU) adalah prosesor yang dioptimalkan untuk komputasi algoritma deep learning, yang dirancang untuk memproses ribuan komputasi secara bersamaan secara efisien.

Samsung Electronics bulan lalu mengumumkan tujuannya untuk memperkuat kepemimpinannya dalam industri sistem semikonduktor global pada tahun 2030 melalui perluasan pengembangan teknologi NPU miliknya. Samsung baru-baru ini menyampaikan pembaruan untuk tujuan ini pada konferensi Computer Vision and Pattern Recognition (CVPR), salah satu konferensi akademik teratas di bidang computer vision.

Pembaruan ini adalah pengembangan oleh Samsung dari algoritme ringan On-Device AI-nya, yang diperkenalkan di CVPR dengan makalah yang berjudul “Learning to Quantize Deep Networks by Optimizing Quantization Intervals With Task Loss”. Teknologi On-Device AI secara langsung menghitung dan memproses data dari dalam perangkat itu sendiri. Lebih dari 4 kali lebih ringan dan 8 kali lebih cepat dari algoritma yang ada, solusi algoritma terbaru Samsung secara dramatis ditingkatkan dari solusi sebelumnya dan telah dievaluasi sebagai kunci untuk memecahkan masalah potensial untuk perhitungan berkecepatan tinggi yang berdaya rendah.


Memperlancar Proses Deep Learning

Samsung Advanced Institute of Technology (SAIT) telah mengumumkan bahwa mereka telah berhasil mengembangkan teknologi On-Device AI ringan yang melakukan komputasi 8 kali lebih cepat daripada data deep learning 32-bit yang ada untuk server. Dengan menyesuaikan data ke dalam kelompok di bawah 4 bit sambil mempertahankan pengenalan data yang akurat, metode pemrosesan algoritma deep learning ini secara simultan jauh lebih cepat dan jauh lebih hemat energi daripada solusi yang ada.

Teknologi pemrosesan On-Device AI Samsung yang baru ini menentukan interval dari data signifikan yang memengaruhi kinerja deep learning secara keseluruhan melalui 'learning'. 'Quantization Interval Learning (QIL)' ini mempertahankan keakuratan data dengan mengatur ulang data yang akan disajikan dalam bit yang lebih kecil dari ukurannya yang ada. SAIT menjalankan eksperimen yang berhasil menunjukkan bagaimana kuantisasi algoritma deep learning in-server dalam interval 32 bit memberikan akurasi yang lebih tinggi daripada solusi yang ada saat dikomputasi ke level kurang dari 4 bit.

Ketika data perhitungan deep learning disajikan dalam kelompok bit yang lebih rendah dari 4 bit, perhitungan 'and' dan 'or' diizinkan, di atas perhitungan aritmatika penambahan dan perkalian yang lebih sederhana. Ini berarti bahwa hasil perhitungan menggunakan proses QIL dapat mencapai hasil yang sama seperti proses yang ada saat dapat menggunakan 1/40 ke 1/120 lebih sedikit transistor.

Karena sistem ini membutuhkan lebih sedikit hardware dan lebih sedikit listrik, sistem ini dapat dipasang langsung di dalam perangkat di tempat data untuk gambar atau sensor sidik jari diperoleh, sebelum mentransmisikan data yang diproses ke titik akhir yang diperlukan.


Masa Depan Pemrosesan AI dan Deep Learning

Teknologi ini akan membantu mengembangkan kapasitas sistem semikonduktor Samsung serta memperkuat salah satu teknologi inti dari era AI - Pemrosesan On-Device AI. Berbeda dengan layanan AI yang menggunakan server cloud, teknologi On-Device AI secara langsung menghitung semua data dari dalam perangkat itu sendiri.

Teknologi On-Device AI dapat mengurangi biaya konstruksi cloud untuk operasional AI karena mampu beroperasi sendiri dan memberikan kinerja yang cepat dan stabil untuk kasus penggunaan seperti virtual reality dan autonomous driving. Lebih lanjut, teknologi On-Device AI dapat menyimpan informasi biometrik pribadi yang digunakan untuk otentikasi perangkat, seperti sidik jari, iris dan pemindaian wajah, ke perangkat mobile dengan aman.


"Pada akhirnya, di masa depan kita akan hidup di dunia di mana semua perangkat dan teknologi berbasis sensor ditenagai oleh AI," kata Chang-Kyu Choi, Wakil Presiden dan kepala Computer Vision Lab di SAIT. “Teknologi On-Device AI Samsung adalah solusi berkecepatan lebih tinggi yang berdaya rendah untuk deep learning yang akan membuka jalan menuju masa depan. Mereka diatur untuk memperluas pasar memori, prosesor dan sensor, serta pasar semikonduktor sistem generasi berikutnya.”

Fitur utama teknologi On-Device AI adalah kemampuannya untuk menghitung data dalam jumlah besar dengan kecepatan tinggi tanpa mengkonsumsi listrik dalam jumlah yang berlebihan. Solusi pertama Samsung untuk tujuan ini adalah Exynos 9 (9820), yang diperkenalkan tahun lalu, yang menampilkan Samsung NPU eksklusif di dalam System on Chip (SoC) mobile. Produk ini memungkinkan perangkat mobile untuk melakukan perhitungan AI yang independen dari server cloud eksternal.

Banyak perusahaan telah mengalihkan perhatian mereka ke teknologi On-Device AI. Samsung Electronics berencana untuk meningkatkan dan memperluas kepemimpinan teknologi AI dengan menerapkan algoritma ini tidak hanya untuk SoC mobile, tetapi juga untuk solusi memori dan sensor dalam waktu dekat.