Kuliah Umum Program Pascasarjana Politeknik Negeri Jakarta

Pada hari Senin, 16 Juni 2025, Program Pascasarjana Program Studi Magister Terapan Teknik Elektro, Politeknik Negeri Jakarta, telah menyelenggarakan kuliah umum secara daring dengan topik: “Convergence of AI, IoT, and Next-Generation Networks in Integrated Energy, Control, and Communication Systems: Toward Sustainable and Resilient Industrial Ecosystems in the Era of Industry 5.0.

Kuliah umum ini membahas konvergensi tiga pilar teknologi masa depan—kecerdasan buatan (AI), Internet of Things (IoT), dan Next-Gen Networks—dalam membangun sistem energi, kendali, dan komunikasi yang terintegrasi untuk mendukung ekosistem industri yang berkelanjutan dan tangguh di era Industry 5.0.

Saya menyampaikan apresiasi dan terima kasih kepada Bapak Nana Sutarna, Ph.D., selaku Ketua Program Studi Magister Terapan Teknik Elektro, atas undangan dan kesempatan yang diberikan. Semoga materi yang disampaikan dapat memberikan manfaat, memperluas wawasan, serta menginspirasi seluruh peserta yang hadir, sekaligus mendorong kolaborasi dan inovasi lanjutan di bidang teknik elektro dan teknologi industri masa depan.

Seminar Nasional Teknik Elektro 2025

Perhelatan Seminar Nasional Teknik Elektro 2025 (SNTE 2025) telah sukses diselenggarakan di Auditorium Gedung Perpustakaan, Kampus Politeknik Negeri Jakarta, Depok. Kegiatan ini dilaksanakan secara hybrid – kehadiran luring dan partisipasi daring.

Pada kesempatan tersebut, saya membawakan topik bertajuk “Microcontrollers in CPS: Powering Society 5.0’s Smart Future“. Dalam sesi pemaparan selama 60 menit, saya mengulas peran strategis mikrokontroler dalam membangun sistem siber-fisik (cyber-physical systems) yang menjadi fondasi bagi terwujudnya masyarakat cerdas (Society 5.0). Topik ini mencakup pemanfaatan mikrokontroler dalam integrasi sensor, aktuator, dan jaringan komunikasi, serta kontribusinya dalam otomasi, pengambilan keputusan real-time, dan transformasi digital di berbagai sektor—mulai dari industri hingga pelayanan publik.

Sesi pemaparan ditutup dengan sesi tanya jawab yang berlangsung cukup interaktif, meskipun waktu yang tersedia sangat terbatas. Antusiasme peserta dalam menggali lebih dalam topik yang dibahas menjadi indikator pentingnya diskusi tentang teknologi siber-fisik di tengah pesatnya perkembangan teknologi digital saat ini.

Saya menyampaikan terima kasih kepada panitia atas kesempatan dan kepercayaan yang diberikan untuk berkontribusi dalam forum ilmiah ini. Ucapan terima kasih secara khusus saya sampaikan kepada Ibu Dr. Murie Dwiyaniti, selaku Ketua Jurusan Teknik Elektro Politeknik Negeri Jakarta, atas undangannya yang sangat berharga.

Semoga apa yang disampaikan dapat memberikan manfaat dan menginspirasi lebih banyak inovasi dalam dunia pendidikan dan teknologi.

Bagaimana Cara Bekerja NTP?

NTP menjaga agar jam di berbagai sistem komputer tetap sinkron meskipun ada penundaan dan variabilitas jaringan. Protokol ini bekerja dengan cara mengukur waktu pengiriman dan penerimaan paket antara klien dan server NTP, kemudian menghitung delay (penundaan jaringan) dan offset (perbedaan waktu antara jam sistem klien dan server).

Proses dimulai saat klien NTP mengirimkan permintaan waktu ke server. Permintaan ini tercatat pada waktu T1 (saat keluar dari klien) dan diterima oleh server pada T2. Server kemudian membalas dengan respons waktu yang dikirim pada T3 dan diterima kembali oleh klien pada T4. Berdasarkan keempat timestamp ini, klien menghitung dua hal penting:

  • Penundaan Jaringan (D) dihitung dengan rumus:
    D = (T4 - T1) - (T3 - T2)
    Ini merepresentasikan waktu tempuh bolak-balik dikurangi waktu pemrosesan di server.

  • Selisih Waktu (θ) atau clock offset dihitung dengan rumus:
    θ = [(T2 - T1) + (T3 - T4)] / 2
    Ini menunjukkan seberapa jauh jam klien tertinggal atau lebih cepat dibanding server.

Jika nilai clock offset cukup besar, klien NTP akan melakukan koreksi langsung dengan menyetel ulang jam sistem. Namun jika offset kecil (kurang dari 128 milidetik), maka penyesuaian dilakukan secara bertahap, dengan mempercepat atau memperlambat jam hingga sinkron.

Selain itu, kualitas jaringan juga diperiksa. Jika penundaan jaringan terlalu besar dan tidak stabil, klien dapat mengabaikan data dari server atau mengurangi pengaruhnya dalam proses sinkronisasi untuk menghindari koreksi waktu yang tidak akurat.

Dengan pendekatan ini, NTP memungkinkan sinkronisasi waktu yang akurat dan stabil di seluruh jaringan komputer, bahkan dalam kondisi jaringan yang fluktuatif.

ESP32-P4: Performa Tinggi dan Dukungan HMI

ESP32 telah menjadi sebuah game-changer di pasar mikrokontroler sejak diluncurkannya ESP32 di tahun 2016. Dikenal dengan harga murah dan konsumsi daya yang rendah, seri ESP32 yang meng-integrasikan kemampuan WiFi dan Bluetooth, menjadikannya pilihan populer untuk aplikasi IoT. Selama bertahun-tahun, Espressif telah mengeluarkan sejumlah varian, seperti ESP32-S2, ESP32-C3 dan ESP32-S3, masing-masing mengusung peningkatan dan fitur-fitur baru.

Diluncurkan pada Januari 2023, ESP32-P4 hadir dengan pendekatan yang berbeda dibandingkan pendahulunya. Tidak seperti varian sebelumnya yang dilengkapi konektivitas WiFi atau Bluetooth bawaan, ESP32-P4 tidak memiliki kemampuan nirkabel internal. Sebagai gantinya, mikrokontroler ini difokuskan untuk pemrosesan berperforma tinggi dan dukungan periferal yang canggih, menjadikannya ideal untuk aplikasi yang memerlukan antarmuka manusia-mesin (HMI) yang kaya serta komputasi di sisi edge.

Dengan mengusung arsitektur dual-core RISC-V dan dilengkapi akselerator grafis 2D, pengontrol layar, dan kemampuan kamera yang lebih baik, ESP32-P4 membuka peluang baru untuk pengembangan perangkat yang lebih interaktif dan cerdas, seperti panel kontrol industri, smart display, maupun perangkat edge AI. Meski tanpa konektivitas nirkabel, chip ini tetap dapat dihubungkan ke modul eksternal (seperti ESP32-C3 atau ESP32-S3) untuk menangani komunikasi, sehingga tetap fleksibel untuk sistem terintegrasi.

🎓 Blog ini merupakan bagian dari inisiatif edukasi yang kami lakukan di Padepokan NEXT SYSTEM Bandung. Jika Anda tertarik untuk belajar langsung cara menggunakan ESP32, membangun proyek IoT, atau memahami pemrograman mikrokontroler dari dasar hingga lanjutan, kami mengundang Anda untuk bergabung di kelas pelatihan kami.

Membaca Penekanan Button Secara Analog

Pada gambar berikut, sejumlah button dihubungkan dengan mikrokontroler melalui rangkaian sederhana, menggunakan cara pembacaan analog yang memungkinkan kita untuk menentukan button mana atau kombinasi button yang ditekan.

Dengan pendekatan ini, hanya satu pin analog yang digunakan untuk mendeteksi beberapa tombol, sehingga sangat menghemat pin input mikrokontroler. Nilai tegangan hasil pembacaan ADC kemudian dapat diklasifikasikan menggunakan rentang nilai tertentu (threshold) untuk mengidentifikasi tombol yang ditekan.

🎓 Blog ini merupakan bagian dari inisiatif edukasi yang kami lakukan di Padepokan NEXT SYSTEM Bandung. Jika Anda tertarik untuk belajar langsung cara menggunakan ESP32, membangun proyek IoT, atau memahami pemrograman mikrokontroler dari dasar hingga lanjutan, kami mengundang Anda untuk bergabung di kelas pelatihan kami.

Optimized BiLSTM-Dense Model for Ultra-Short-Term PV Power Forecasting

Jurnal ini sudah disiapkan sejak satu tahun lalu. Namun, dikarenakan sejumlah kesibukan, akhirnya baru dikerjakan di tahun 2025 ini, dan sudah published pada tanggal 8 Mei 2025, melalui publisher Kinetik, yang memiliki akreditasi Sinta 2.

The growing integration of photovoltaic (PV) systems into power grids presents new challenges. These challenges arise from the inherent variability in PV output, especially during rapid weather changes. Consequently, accurate forecasting becomes essential for maintaining grid stability. However, many existing methods fail to capture short-term fluctuations effectively. To address this gap, ultra-short-term PV power prediction—within seconds—offers a promising solution. This study develops an optimized BiLSTM-Dense model to improve forecasting accuracy over a 30-second horizon. By adding a dense layer, the model can better learn complex temporal patterns and data dependencies.

For this purpose, the study uses a dataset collected in late 2023. The dataset includes solar irradiance, PV output power, surface temperature, ambient temperature, humidity, and wind speed. Before modeling, the data undergo normalization and smoothing. These steps help improve signal clarity and model robustness. Next, a grid search tunes the model’s hyperparameters. The process focuses on choosing the best optimizer and activation function. As a result, the Adam optimizer combined with the Swish function yields the best performance. The model achieves an MAE of 0.00271 and an RMSE of 0.00806. These outcomes indicate strong accuracy over ultra-short-term forecasting horizons.

Compared to the baseline, the BiLSTM-Dense model shows improved performance. It reduces MAE and RMSE by 0.52% and 2.19%, respectively, compared to the standard BiLSTM. Moreover, it surpasses the LSTM model with 4.00% lower MAE and 2.65% lower RMSE. Most notably, the model significantly outperforms ARIMA. It cuts MAE by 98.87% and RMSE by 97.21%. Therefore, these results highlight the model’s strength in learning non-linear and bidirectional temporal dependencies. Simpler models like ARIMA and unidirectional LSTM often fail to capture such complexity.

Sumber: https://kinetik.umm.ac.id/index.php/kinetik/article/view/2127

Seminar Nasional Teknik Elektro 2025

📣📣[SEMINAR NASIONAL TEKNIK ELEKTRO 2025]📣📣

Perkembangan Artificial Intelligence of Things (AIoT) menjadi kunci dalam membangun sistem terpadu dan infrastruktur cerdas guna mendukung visi besar Masyarakat era 5.0 untuk menjawab tantangan industri, kota pintar, dan layanan publik.

Bersamaan dengan hal tersebut, Jurusan Teknik Elektro Politeknik Negeri Jakarta hendak mengundang seluruh civitas akademika untuk dapat turut serta dalam kegiatan Seminar Nasional Teknik Elektro 2025 dengan tema:

🎓 “Peran Strategis AIoT dalam Membangun Sistem Terpadu dan Infrastruktur Cerdas di Era Masyarakat 5.0”

🗓 Kamis, 12 Juni 2025
🕤 Mulai Pukul 08.00 WIB
📍 Aula Lantai 3, Gd. Perpustakaan PNJ

👤 Narasumber:

A. Moelky Furqan, S.T., M.M.
Vice President of Network Planning & Architecture PT. Telkomsel Indonesia

Ir. Christianto Tjahyadi, M.Tr.T.
Chief Executive Officer (CEO) of NEXT SYSTEM I.T. Solution

Ir. Silvester Adi Surya Herjuna, M.T.
Manager ULP Jailolo, PT PLN (Persero)

🎙 Moderator:
Sinta Novanana, S.T., M.Si.

📞 Narahubung:
0857-2906-0923 (Rizdam)
0857-5545-0598 (Sulis)

Mengenal One Time Password

Di era digital saat ini, keamanan menjadi aspek yang sangat penting dalam setiap sistem informasi, terutama dalam proses autentikasi pengguna. Salah satu mekanisme yang banyak digunakan untuk meningkatkan keamanan adalah OTP (One-Time Password).

OTP adalah kata sandi sementara yang hanya berlaku untuk satu sesi login atau transaksi. Berbeda dengan kata sandi statis, OTP berubah setiap kali digunakan, sehingga lebih aman dari risiko pencurian data seperti phishing atau replay attack.

Bagaimana OTP Bekerja?

OTP biasanya dikirim melalui SMS, email, atau aplikasi autentikator. Setelah dikirim, pengguna harus memasukkan OTP tersebut dalam waktu tertentu untuk melanjutkan proses login atau verifikasi. Karena OTP hanya berlaku sekali dan dalam waktu singkat, potensi penyalahgunaannya menjadi sangat kecil.

Contoh Implementasi OTP dengan Python

Berikut adalah contoh kode Python sederhana untuk menghasilkan OTP numerik sebanyak 6 digit menggunakan modul secrets:

import secrets

def generate_otp(length=6):
    return ''.join(str(secrets.randbelow(10)) for _ in range(length))

print("Generated OTP:", generate_otp())

IPB: Menyongsong Masa Depan Robotika

Sabtu, 19 April 2025, menjadi momen penting bagi 103 mahasiswa Program Studi Teknologi Rekayasa Komputer, Institut Pertanian Bogor (IPB). Dalam rangka persiapan memasuki masa magang, mereka mengikuti kuliah pembekalan bertema “Robotics: Emerging Technologies and Best Practices“, yang menghadirkan Ir. Christianto Tjahyadi, M.Tr., sebagai narasumber.

Kuliah umum ini dipandu oleh Dodik Ariyanto, S.T.P., M.Si., dosen Program Studi Teknologi Rekayasa Komputer, berlangsung dari pk 10.00 – 12.00 WIB secara daring. Acara berlangsung dengan suasana yang antusias dan penuh semangat, mengingat seluruh peserta merupakan mahasiswa semester 7 yang tengah bersiap memasuki dunia kerja nyata.

Dalam sesi pembekalan, Ir. Christianto membahas berbagai perkembangan teknologi robotik terkini, mulai dari adopsi kecerdasan buatan dalam sistem otonom, integrasi sensor cerdas, hingga implementasi praktik terbaik di berbagai sektor industri. Beliau juga menekankan pentingnya kesiapan mahasiswa untuk beradaptasi terhadap perubahan teknologi yang dinamis, serta membangun keahlian teknis dan soft skill yang dibutuhkan dalam industri berbasis teknologi.

Dengan gaya penyampaian yang komunikatif dan inspiratif, Ir. Christianto tidak hanya membagikan teori dan konsep, tetapi juga pengalaman nyata dari dunia industri robotik. Hal ini membuka wawasan para mahasiswa mengenai tantangan dan peluang yang akan mereka hadapi saat terjun ke dunia profesional.

Kegiatan ini menjadi langkah awal yang sangat berarti dalam mempersiapkan mahasiswa IPB untuk berkontribusi aktif di era Revolusi Industri 4.0, sekaligus mempertegas komitmen IPB dalam mencetak lulusan yang adaptif, inovatif, dan kompeten di bidang teknologi rekayasa komputer.

TensorFlow, PyTorch atau JAX

Saat ini, terdapat tiga framework yang mendominasi dunia riset dan produksi deep learning. Masing-masing memiliki keunggulan tersendiri: satu dikenal karena kemudahan penggunaannya, satu lagi karena kelengkapan fitur dan kematangan ekosistemnya, dan satu lainnya karena kemampuan skalabilitasnya yang luar biasa. Lalu, framework mana yang sebaiknya Anda pilih?

Deep learning telah membawa perubahan besar maupun kecil dalam kehidupan kita sehari-hari. Mulai dari Siri dan Alexa yang memahami perintah suara, aplikasi penerjemah real-time di ponsel, hingga teknologi penglihatan komputer yang menggerakkan traktor pintar, robot di gudang, serta mobil otonom — setiap bulan, selalu ada inovasi baru yang bermunculan. Hampir seluruh aplikasi deep learning ini dikembangkan menggunakan salah satu dari tiga framework utama: TensorFlow, PyTorch, atau JAX.

Framework mana yang paling tepat untuk Anda gunakan? Dalam artikel ini, akan dibahas perbandingan ketiganya secara umum: TensorFlow, PyTorch, dan JAX. Pembahasan akan mencakup kekuatan masing-masing framework dalam berbagai jenis aplikasi, serta mempertimbangkan aspek lain seperti dukungan komunitas dan kemudahan penggunaan.

Mengapa Memilih TensorFlow?

Pada era 1970-an dan 1980-an, dunia komputasi punya slogan populer: “Tidak ada yang dipecat karena membeli IBM.” Di dekade 2010-an, hal serupa bisa dikatakan tentang penggunaan TensorFlow untuk deep learning. Namun seperti yang kita tahu, IBM akhirnya tersisih saat memasuki tahun 1990-an. Lalu, setelah tujuh tahun sejak dirilis pada 2015, apakah TensorFlow masih kompetitif di dekade baru ini?

Jawabannya: tentu saja. TensorFlow tidak diam di tempat. TensorFlow 1.x memang dikenal dengan pendekatan membangun grafik statis yang terasa kurang natural bagi pengguna Python. Namun sejak TensorFlow 2.x, kita bisa membangun model dengan mode “eager execution” untuk evaluasi operasi secara langsung — membuat pengalaman coding lebih mirip dengan PyTorch. Di tingkat atas, TensorFlow menawarkan Keras untuk kemudahan pengembangan, dan di tingkat bawah, ada XLA (Accelerated Linear Algebra) sebagai compiler optimasi yang meningkatkan kecepatan, terutama pada GPU. XLA juga merupakan kunci untuk memaksimalkan performa TPU (Tensor Processing Units) milik Google yang luar biasa dalam melatih model berskala besar.

Selain itu, TensorFlow juga telah lama unggul di banyak aspek. Mau menyajikan model dalam platform yang matang dan stabil? Ada TensorFlow Serving. Mau deploy model ke web, smartphone, atau perangkat IoT dengan sumber daya terbatas? TensorFlow.js dan TensorFlow Lite sudah sangat matang untuk kebutuhan tersebut. Dan jangan lupakan: hingga saat ini, 100% deployment produksi Google masih menggunakan TensorFlow — membuktikan skalabilitas dan keandalan platform ini.

“TensorFlow tetap menjadi pilihan utama untuk aplikasi produksi besar, dengan dukungan penuh terhadap perangkat keras seperti GPU dan TPU serta ekosistem yang sangat matang.”

Namun, harus diakui, belakangan ini terasa ada semacam “penurunan energi” di sekitar proyek TensorFlow. Migrasi dari TensorFlow 1.x ke 2.x, misalnya, terbukti sangat berat. Banyak perusahaan akhirnya memilih memindahkan kode mereka ke PyTorch daripada menghabiskan waktu untuk adaptasi besar-besaran. TensorFlow juga kehilangan popularitas di kalangan peneliti, yang lebih memilih fleksibilitas PyTorch — menyebabkan penurunan jumlah publikasi ilmiah berbasis TensorFlow.

Masalah lain muncul dari kisah Keras. Setelah menjadi bagian resmi dari TensorFlow, Keras belakangan kembali dipisahkan sebagai library independen dengan jadwal rilis sendiri. Meskipun perubahan ini mungkin tidak berdampak besar pada penggunaan harian, pembalikan keputusan yang begitu besar di versi minor tentu menimbulkan keraguan.

Meski demikian, TensorFlow tetaplah sebuah framework yang andal dengan ekosistem deep learning yang sangat luas. Anda bisa membangun aplikasi dan model dari skala kecil hingga besar dengan TensorFlow, dan akan bergabung bersama banyak komunitas pengguna lainnya. Hanya saja, untuk banyak pengembang dan peneliti saat ini, TensorFlow mungkin bukan lagi pilihan pertama.

Mengapa Memilih PyTorch?

Kini bukan lagi pendatang baru yang hanya membayangi TensorFlow, PyTorch telah menjadi kekuatan utama di dunia deep learning saat ini — utamanya dalam bidang riset, namun semakin banyak pula digunakan dalam aplikasi produksi. Dengan mode eager yang kini menjadi standar pengembangan baik di TensorFlow maupun PyTorch, pendekatan PyTorch yang lebih Pythonic melalui automatic differentiation (autograd) tampaknya telah memenangkan persaingan melawan konsep static graph.

Berbeda dengan TensorFlow, PyTorch tidak mengalami perubahan besar pada kode inti sejak penghapusan Variable API pada versi 0.4. (Sebelumnya, penggunaan autograd dengan tensor mengharuskan pemanggilan Variable; kini semua objek secara langsung berupa tensor.) Namun, bukan berarti perjalanan PyTorch tanpa hambatan. Misalnya, bagi pengguna yang telah melatih model di beberapa GPU, mungkin pernah menghadapi kebingungan antara penggunaan DataParallel dan DistributedDataParallel. Meskipun sebenarnya DistributedDataParallel sangat disarankan untuk hampir semua kasus penggunaan, DataParallel tetap tersedia dan belum resmi dihentikan.

Meskipun sebelumnya PyTorch tertinggal di belakang TensorFlow dan JAX dalam hal dukungan terhadap XLA/TPU, situasinya telah membaik secara signifikan sejak tahun 2022. Kini PyTorch mendukung akses ke TPU VM maupun dukungan gaya lama untuk TPU Node, serta memungkinkan deployment ke CPU, GPU, atau TPU melalui command-line tanpa perlu mengubah satu baris pun dalam kode. Jika Anda tidak ingin berurusan dengan kode boilerplate yang terkadang harus ditulis sendiri di PyTorch, Anda dapat memanfaatkan tambahan tingkat tinggi seperti PyTorch Lightning, yang memungkinkan Anda lebih fokus pada pekerjaan utama daripada harus menulis ulang training loop. Di sisi lain, meskipun pengembangan PyTorch Mobile terus berlanjut, kematangannya masih jauh dibandingkan dengan TensorFlow Lite.

“PyTorch telah memenangkan hati komunitas penelitian berkat pendekatannya yang lebih fleksibel dan Pythonic, serta kemudahan dalam eksperimen dengan model-model baru.”

Untuk kebutuhan produksi, PyTorch kini terintegrasi dengan berbagai platform yang bersifat framework-agnostic seperti Kubeflow. Selain itu, proyek TorchServe menangani detail deployment seperti scaling, monitoring metrik, dan batch inference, menawarkan solusi MLOps yang ringkas dan langsung dikelola oleh pengembang PyTorch sendiri. Apakah PyTorch mampu menangani skala besar? Meta (sebelumnya Facebook) telah menggunakan PyTorch dalam produksi selama bertahun-tahun, sehingga klaim bahwa PyTorch tidak mampu menangani beban kerja berskala besar dapat dipastikan tidak benar. Meski demikian, dapat dikatakan bahwa untuk pelatihan model yang sangat besar — melibatkan ribuan GPU atau TPU — PyTorch mungkin masih sedikit kalah ramah dibandingkan dengan JAX.

Akhirnya, ada satu faktor besar yang tak bisa diabaikan. Popularitas PyTorch dalam beberapa tahun terakhir hampir pasti terkait dengan kesuksesan pustaka Transformers dari Hugging Face. Memang, saat ini Transformers mendukung TensorFlow dan JAX juga, tetapi awalnya dibangun berbasis PyTorch dan hingga kini tetap sangat erat kaitannya dengan framework ini. Dengan meningkatnya dominasi arsitektur Transformer, fleksibilitas PyTorch dalam riset, dan kemudahan untuk mengakses berbagai model baru dalam hitungan hari atau bahkan jam setelah publikasi melalui model hub Hugging Face, tidak heran jika PyTorch kini semakin luas digunakan di berbagai kalangan.

Mengapa Memilih JAX?

Jika Anda kurang tertarik dengan TensorFlow, Google mungkin memiliki alternatif lain untuk Anda. Setidaknya, semacam itu. JAX adalah framework deep learning yang dikembangkan, dikelola, dan digunakan oleh Google, meskipun secara resmi bukan merupakan produk Google. Namun, jika Anda menelusuri publikasi dan rilis terbaru dari Google atau DeepMind selama setahun terakhir, Anda akan menyadari bahwa banyak riset mereka kini berpindah ke JAX. Jadi, meskipun bukan “produk resmi” Google, JAX adalah alat yang digunakan para peneliti Google untuk mendorong batasan inovasi.

Apa sebenarnya JAX itu? Cara termudah untuk membayangkannya adalah: bayangkan sebuah versi NumPy yang dipercepat dengan GPU atau TPU, yang mampu secara ajaib memvektorisasi fungsi Python dan menghitung seluruh turunan fungsi tersebut secara otomatis. Selain itu, JAX dilengkapi dengan komponen JIT (Just-In-Time) yang mengoptimalkan kode Anda untuk XLA compiler, menghasilkan peningkatan performa yang signifikan dibandingkan TensorFlow dan PyTorch. Tidak jarang eksekusi kode menjadi empat hingga lima kali lebih cepat hanya dengan mengimplementasikannya ulang menggunakan JAX, tanpa perlu melakukan optimasi khusus.

“JAX mengubah cara kita melihat komputasi numerik, dengan memberikan kecepatan dan efisiensi yang luar biasa melalui akselerasi GPU/TPU dan optimisasi Just-In-Time.”

Karena JAX bekerja di tingkat yang serupa dengan NumPy, penulisan kode JAX terjadi di tingkat yang lebih rendah dibandingkan TensorFlow/Keras, bahkan dibandingkan PyTorch. Beruntung, ekosistem proyek pendukung JAX terus berkembang. Jika Anda membutuhkan pustaka neural network, ada Flax dari Google dan Haiku dari DeepMind. Untuk kebutuhan optimasi, ada Optax, sementara PIX tersedia untuk pemrosesan citra, dan masih banyak lagi. Setelah Anda terbiasa menggunakan pustaka seperti Flax, membangun jaringan saraf di JAX menjadi jauh lebih mudah. Namun, tetap perlu diingat bahwa JAX masih memiliki sejumlah kekhasan; misalnya, cara penanganan angka acak di JAX berbeda dari framework lain dan memerlukan pemahaman tambahan.

Perlukah Anda langsung beralih sepenuhnya ke JAX dan mengikuti gelombang teknologi terbaru? Mungkin iya, jika Anda mendalami riset yang melibatkan model berskala besar yang membutuhkan sumber daya luar biasa untuk dilatih. Kemajuan yang ditawarkan JAX di bidang pelatihan deterministik, serta kemampuannya dalam menangani ribuan pod TPU secara efisien, mungkin sudah cukup menjadi alasan untuk mempertimbangkan transisi.

🚀 Mau menguasai TensorFlow, PyTorch, dan JAX?
Silahkan menghubungi Padepokan NEXT SYSTEM Bandung untuk pembelajaran praktis langsung dari ahlinya! Dapatkan pengetahuan mendalam dan keterampilan terdepan dalam deep learning, siap menghadapi tantangan industri masa depan. Daftar sekarang dan jadilah bagian dari komunitas inovasi yang akan mengubah dunia teknologi!