ESP32-P4: Performa Tinggi dan Dukungan HMI

ESP32 telah menjadi sebuah game-changer di pasar mikrokontroler sejak diluncurkannya ESP32 di tahun 2016. Dikenal dengan harga murah dan konsumsi daya yang rendah, seri ESP32 yang meng-integrasikan kemampuan WiFi dan Bluetooth, menjadikannya pilihan populer untuk aplikasi IoT. Selama bertahun-tahun, Espressif telah mengeluarkan sejumlah varian, seperti ESP32-S2, ESP32-C3 dan ESP32-S3, masing-masing mengusung peningkatan dan fitur-fitur baru.

Diluncurkan pada Januari 2023, ESP32-P4 hadir dengan pendekatan yang berbeda dibandingkan pendahulunya. Tidak seperti varian sebelumnya yang dilengkapi konektivitas WiFi atau Bluetooth bawaan, ESP32-P4 tidak memiliki kemampuan nirkabel internal. Sebagai gantinya, mikrokontroler ini difokuskan untuk pemrosesan berperforma tinggi dan dukungan periferal yang canggih, menjadikannya ideal untuk aplikasi yang memerlukan antarmuka manusia-mesin (HMI) yang kaya serta komputasi di sisi edge.

Dengan mengusung arsitektur dual-core RISC-V dan dilengkapi akselerator grafis 2D, pengontrol layar, dan kemampuan kamera yang lebih baik, ESP32-P4 membuka peluang baru untuk pengembangan perangkat yang lebih interaktif dan cerdas, seperti panel kontrol industri, smart display, maupun perangkat edge AI. Meski tanpa konektivitas nirkabel, chip ini tetap dapat dihubungkan ke modul eksternal (seperti ESP32-C3 atau ESP32-S3) untuk menangani komunikasi, sehingga tetap fleksibel untuk sistem terintegrasi.

🎓 Blog ini merupakan bagian dari inisiatif edukasi yang kami lakukan di Padepokan NEXT SYSTEM Bandung. Jika Anda tertarik untuk belajar langsung cara menggunakan ESP32, membangun proyek IoT, atau memahami pemrograman mikrokontroler dari dasar hingga lanjutan, kami mengundang Anda untuk bergabung di kelas pelatihan kami.

Membaca Penekanan Button Secara Analog

Pada gambar berikut, sejumlah button dihubungkan dengan mikrokontroler melalui rangkaian sederhana, menggunakan cara pembacaan analog yang memungkinkan kita untuk menentukan button mana atau kombinasi button yang ditekan.

Dengan pendekatan ini, hanya satu pin analog yang digunakan untuk mendeteksi beberapa tombol, sehingga sangat menghemat pin input mikrokontroler. Nilai tegangan hasil pembacaan ADC kemudian dapat diklasifikasikan menggunakan rentang nilai tertentu (threshold) untuk mengidentifikasi tombol yang ditekan.

🎓 Blog ini merupakan bagian dari inisiatif edukasi yang kami lakukan di Padepokan NEXT SYSTEM Bandung. Jika Anda tertarik untuk belajar langsung cara menggunakan ESP32, membangun proyek IoT, atau memahami pemrograman mikrokontroler dari dasar hingga lanjutan, kami mengundang Anda untuk bergabung di kelas pelatihan kami.

Optimized BiLSTM-Dense Model for Ultra-Short-Term PV Power Forecasting

Jurnal ini sudah disiapkan sejak satu tahun lalu. Namun, dikarenakan sejumlah kesibukan, akhirnya baru dikerjakan di tahun 2025 ini dan sudah published pada tanggal 8 Mei 2025, melalui publisher Kinetik, yang memiliki akreditasi Sinta 2.

The growing integration of photovoltaic (PV) systems into power grids presents new challenges. These challenges arise from the inherent variability in PV output, especially during rapid weather changes. Consequently, accurate forecasting becomes essential for maintaining grid stability. However, many existing methods fail to capture short-term fluctuations effectively. To address this gap, ultra-short-term PV power prediction—within seconds—offers a promising solution. This study develops an optimized BiLSTM-Dense model to improve forecasting accuracy over a 30-second horizon. By adding a dense layer, the model can better learn complex temporal patterns and data dependencies.

For this purpose, the study uses a dataset collected in late 2023. The dataset includes solar irradiance, PV output power, surface temperature, ambient temperature, humidity, and wind speed. Before modeling, the data undergo normalization and smoothing. These steps help improve signal clarity and model robustness. Next, a grid search tunes the model’s hyperparameters. The process focuses on choosing the best optimizer and activation function. As a result, the Adam optimizer combined with the Swish function yields the best performance. The model achieves an MAE of 0.00271 and an RMSE of 0.00806. These outcomes indicate strong accuracy over ultra-short-term forecasting horizons.

Compared to the baseline, the BiLSTM-Dense model shows improved performance. It reduces MAE and RMSE by 0.52% and 2.19%, respectively, compared to the standard BiLSTM. Moreover, it surpasses the LSTM model with 4.00% lower MAE and 2.65% lower RMSE. Most notably, the model significantly outperforms ARIMA. It cuts MAE by 98.87% and RMSE by 97.21%. Therefore, these results highlight the model’s strength in learning non-linear and bidirectional temporal dependencies. Simpler models like ARIMA and unidirectional LSTM often fail to capture such complexity.

Seminar Nasional Teknik Elektro 2025

📣📣[SEMINAR NASIONAL TEKNIK ELEKTRO 2025]📣📣

Perkembangan Artificial Intelligence of Things (AIoT) menjadi kunci dalam membangun sistem terpadu dan infrastruktur cerdas guna mendukung visi besar Masyarakat era 5.0 untuk menjawab tantangan industri, kota pintar, dan layanan publik.

Bersamaan dengan hal tersebut, Jurusan Teknik Elektro Politeknik Negeri Jakarta hendak mengundang seluruh civitas akademika untuk dapat turut serta dalam kegiatan Seminar Nasional Teknik Elektro 2025 dengan tema:

🎓 “Peran Strategis AIoT dalam Membangun Sistem Terpadu dan Infrastruktur Cerdas di Era Masyarakat 5.0”

🗓 Kamis, 12 Juni 2025
🕤 Mulai Pukul 08.00 WIB
📍 Aula Lantai 3, Gd. Perpustakaan PNJ

👤 Narasumber:

A. Moelky Furqan, S.T., M.M.
Vice President of Network Planning & Architecture PT. Telkomsel Indonesia

Ir. Christianto Tjahyadi, M.Tr.T.
Chief Executive Officer (CEO) of NEXT SYSTEM I.T. Solution

Ir. Silvester Adi Surya Herjuna, M.T.
Manager ULP Jailolo, PT PLN (Persero)

🎙 Moderator:
Sinta Novanana, S.T., M.Si.

📞 Narahubung:
0857-2906-0923 (Rizdam)
0857-5545-0598 (Sulis)

Mengenal One Time Password

Di era digital saat ini, keamanan menjadi aspek yang sangat penting dalam setiap sistem informasi, terutama dalam proses autentikasi pengguna. Salah satu mekanisme yang banyak digunakan untuk meningkatkan keamanan adalah OTP (One-Time Password).

OTP adalah kata sandi sementara yang hanya berlaku untuk satu sesi login atau transaksi. Berbeda dengan kata sandi statis, OTP berubah setiap kali digunakan, sehingga lebih aman dari risiko pencurian data seperti phishing atau replay attack.

Bagaimana OTP Bekerja?

OTP biasanya dikirim melalui SMS, email, atau aplikasi autentikator. Setelah dikirim, pengguna harus memasukkan OTP tersebut dalam waktu tertentu untuk melanjutkan proses login atau verifikasi. Karena OTP hanya berlaku sekali dan dalam waktu singkat, potensi penyalahgunaannya menjadi sangat kecil.

Contoh Implementasi OTP dengan Python

Berikut adalah contoh kode Python sederhana untuk menghasilkan OTP numerik sebanyak 6 digit menggunakan modul secrets:

import secrets

def generate_otp(length=6):
    return ''.join(str(secrets.randbelow(10)) for _ in range(length))

print("Generated OTP:", generate_otp())

IPB: Menyongsong Masa Depan Robotika

Sabtu, 19 April 2025, menjadi momen penting bagi 103 mahasiswa Program Studi Teknologi Rekayasa Komputer, Institut Pertanian Bogor (IPB). Dalam rangka persiapan memasuki masa magang, mereka mengikuti kuliah pembekalan bertema “Robotics: Emerging Technologies and Best Practices“, yang menghadirkan Ir. Christianto Tjahyadi, M.Tr., sebagai narasumber.

Kuliah umum ini dipandu oleh Dodik Ariyanto, S.T.P., M.Si., dosen Program Studi Teknologi Rekayasa Komputer, berlangsung dari pk 10.00 – 12.00 WIB secara daring. Acara berlangsung dengan suasana yang antusias dan penuh semangat, mengingat seluruh peserta merupakan mahasiswa semester 7 yang tengah bersiap memasuki dunia kerja nyata.

Dalam sesi pembekalan, Ir. Christianto membahas berbagai perkembangan teknologi robotik terkini, mulai dari adopsi kecerdasan buatan dalam sistem otonom, integrasi sensor cerdas, hingga implementasi praktik terbaik di berbagai sektor industri. Beliau juga menekankan pentingnya kesiapan mahasiswa untuk beradaptasi terhadap perubahan teknologi yang dinamis, serta membangun keahlian teknis dan soft skill yang dibutuhkan dalam industri berbasis teknologi.

Dengan gaya penyampaian yang komunikatif dan inspiratif, Ir. Christianto tidak hanya membagikan teori dan konsep, tetapi juga pengalaman nyata dari dunia industri robotik. Hal ini membuka wawasan para mahasiswa mengenai tantangan dan peluang yang akan mereka hadapi saat terjun ke dunia profesional.

Kegiatan ini menjadi langkah awal yang sangat berarti dalam mempersiapkan mahasiswa IPB untuk berkontribusi aktif di era Revolusi Industri 4.0, sekaligus mempertegas komitmen IPB dalam mencetak lulusan yang adaptif, inovatif, dan kompeten di bidang teknologi rekayasa komputer.

TensorFlow, PyTorch atau JAX

Saat ini, terdapat tiga framework yang mendominasi dunia riset dan produksi deep learning. Masing-masing memiliki keunggulan tersendiri: satu dikenal karena kemudahan penggunaannya, satu lagi karena kelengkapan fitur dan kematangan ekosistemnya, dan satu lainnya karena kemampuan skalabilitasnya yang luar biasa. Lalu, framework mana yang sebaiknya Anda pilih?

Deep learning telah membawa perubahan besar maupun kecil dalam kehidupan kita sehari-hari. Mulai dari Siri dan Alexa yang memahami perintah suara, aplikasi penerjemah real-time di ponsel, hingga teknologi penglihatan komputer yang menggerakkan traktor pintar, robot di gudang, serta mobil otonom — setiap bulan, selalu ada inovasi baru yang bermunculan. Hampir seluruh aplikasi deep learning ini dikembangkan menggunakan salah satu dari tiga framework utama: TensorFlow, PyTorch, atau JAX.

Framework mana yang paling tepat untuk Anda gunakan? Dalam artikel ini, akan dibahas perbandingan ketiganya secara umum: TensorFlow, PyTorch, dan JAX. Pembahasan akan mencakup kekuatan masing-masing framework dalam berbagai jenis aplikasi, serta mempertimbangkan aspek lain seperti dukungan komunitas dan kemudahan penggunaan.

Mengapa Memilih TensorFlow?

Pada era 1970-an dan 1980-an, dunia komputasi punya slogan populer: “Tidak ada yang dipecat karena membeli IBM.” Di dekade 2010-an, hal serupa bisa dikatakan tentang penggunaan TensorFlow untuk deep learning. Namun seperti yang kita tahu, IBM akhirnya tersisih saat memasuki tahun 1990-an. Lalu, setelah tujuh tahun sejak dirilis pada 2015, apakah TensorFlow masih kompetitif di dekade baru ini?

Jawabannya: tentu saja. TensorFlow tidak diam di tempat. TensorFlow 1.x memang dikenal dengan pendekatan membangun grafik statis yang terasa kurang natural bagi pengguna Python. Namun sejak TensorFlow 2.x, kita bisa membangun model dengan mode “eager execution” untuk evaluasi operasi secara langsung — membuat pengalaman coding lebih mirip dengan PyTorch. Di tingkat atas, TensorFlow menawarkan Keras untuk kemudahan pengembangan, dan di tingkat bawah, ada XLA (Accelerated Linear Algebra) sebagai compiler optimasi yang meningkatkan kecepatan, terutama pada GPU. XLA juga merupakan kunci untuk memaksimalkan performa TPU (Tensor Processing Units) milik Google yang luar biasa dalam melatih model berskala besar.

Selain itu, TensorFlow juga telah lama unggul di banyak aspek. Mau menyajikan model dalam platform yang matang dan stabil? Ada TensorFlow Serving. Mau deploy model ke web, smartphone, atau perangkat IoT dengan sumber daya terbatas? TensorFlow.js dan TensorFlow Lite sudah sangat matang untuk kebutuhan tersebut. Dan jangan lupakan: hingga saat ini, 100% deployment produksi Google masih menggunakan TensorFlow — membuktikan skalabilitas dan keandalan platform ini.

“TensorFlow tetap menjadi pilihan utama untuk aplikasi produksi besar, dengan dukungan penuh terhadap perangkat keras seperti GPU dan TPU serta ekosistem yang sangat matang.”

Namun, harus diakui, belakangan ini terasa ada semacam “penurunan energi” di sekitar proyek TensorFlow. Migrasi dari TensorFlow 1.x ke 2.x, misalnya, terbukti sangat berat. Banyak perusahaan akhirnya memilih memindahkan kode mereka ke PyTorch daripada menghabiskan waktu untuk adaptasi besar-besaran. TensorFlow juga kehilangan popularitas di kalangan peneliti, yang lebih memilih fleksibilitas PyTorch — menyebabkan penurunan jumlah publikasi ilmiah berbasis TensorFlow.

Masalah lain muncul dari kisah Keras. Setelah menjadi bagian resmi dari TensorFlow, Keras belakangan kembali dipisahkan sebagai library independen dengan jadwal rilis sendiri. Meskipun perubahan ini mungkin tidak berdampak besar pada penggunaan harian, pembalikan keputusan yang begitu besar di versi minor tentu menimbulkan keraguan.

Meski demikian, TensorFlow tetaplah sebuah framework yang andal dengan ekosistem deep learning yang sangat luas. Anda bisa membangun aplikasi dan model dari skala kecil hingga besar dengan TensorFlow, dan akan bergabung bersama banyak komunitas pengguna lainnya. Hanya saja, untuk banyak pengembang dan peneliti saat ini, TensorFlow mungkin bukan lagi pilihan pertama.

Mengapa Memilih PyTorch?

Kini bukan lagi pendatang baru yang hanya membayangi TensorFlow, PyTorch telah menjadi kekuatan utama di dunia deep learning saat ini — utamanya dalam bidang riset, namun semakin banyak pula digunakan dalam aplikasi produksi. Dengan mode eager yang kini menjadi standar pengembangan baik di TensorFlow maupun PyTorch, pendekatan PyTorch yang lebih Pythonic melalui automatic differentiation (autograd) tampaknya telah memenangkan persaingan melawan konsep static graph.

Berbeda dengan TensorFlow, PyTorch tidak mengalami perubahan besar pada kode inti sejak penghapusan Variable API pada versi 0.4. (Sebelumnya, penggunaan autograd dengan tensor mengharuskan pemanggilan Variable; kini semua objek secara langsung berupa tensor.) Namun, bukan berarti perjalanan PyTorch tanpa hambatan. Misalnya, bagi pengguna yang telah melatih model di beberapa GPU, mungkin pernah menghadapi kebingungan antara penggunaan DataParallel dan DistributedDataParallel. Meskipun sebenarnya DistributedDataParallel sangat disarankan untuk hampir semua kasus penggunaan, DataParallel tetap tersedia dan belum resmi dihentikan.

Meskipun sebelumnya PyTorch tertinggal di belakang TensorFlow dan JAX dalam hal dukungan terhadap XLA/TPU, situasinya telah membaik secara signifikan sejak tahun 2022. Kini PyTorch mendukung akses ke TPU VM maupun dukungan gaya lama untuk TPU Node, serta memungkinkan deployment ke CPU, GPU, atau TPU melalui command-line tanpa perlu mengubah satu baris pun dalam kode. Jika Anda tidak ingin berurusan dengan kode boilerplate yang terkadang harus ditulis sendiri di PyTorch, Anda dapat memanfaatkan tambahan tingkat tinggi seperti PyTorch Lightning, yang memungkinkan Anda lebih fokus pada pekerjaan utama daripada harus menulis ulang training loop. Di sisi lain, meskipun pengembangan PyTorch Mobile terus berlanjut, kematangannya masih jauh dibandingkan dengan TensorFlow Lite.

“PyTorch telah memenangkan hati komunitas penelitian berkat pendekatannya yang lebih fleksibel dan Pythonic, serta kemudahan dalam eksperimen dengan model-model baru.”

Untuk kebutuhan produksi, PyTorch kini terintegrasi dengan berbagai platform yang bersifat framework-agnostic seperti Kubeflow. Selain itu, proyek TorchServe menangani detail deployment seperti scaling, monitoring metrik, dan batch inference, menawarkan solusi MLOps yang ringkas dan langsung dikelola oleh pengembang PyTorch sendiri. Apakah PyTorch mampu menangani skala besar? Meta (sebelumnya Facebook) telah menggunakan PyTorch dalam produksi selama bertahun-tahun, sehingga klaim bahwa PyTorch tidak mampu menangani beban kerja berskala besar dapat dipastikan tidak benar. Meski demikian, dapat dikatakan bahwa untuk pelatihan model yang sangat besar — melibatkan ribuan GPU atau TPU — PyTorch mungkin masih sedikit kalah ramah dibandingkan dengan JAX.

Akhirnya, ada satu faktor besar yang tak bisa diabaikan. Popularitas PyTorch dalam beberapa tahun terakhir hampir pasti terkait dengan kesuksesan pustaka Transformers dari Hugging Face. Memang, saat ini Transformers mendukung TensorFlow dan JAX juga, tetapi awalnya dibangun berbasis PyTorch dan hingga kini tetap sangat erat kaitannya dengan framework ini. Dengan meningkatnya dominasi arsitektur Transformer, fleksibilitas PyTorch dalam riset, dan kemudahan untuk mengakses berbagai model baru dalam hitungan hari atau bahkan jam setelah publikasi melalui model hub Hugging Face, tidak heran jika PyTorch kini semakin luas digunakan di berbagai kalangan.

Mengapa Memilih JAX?

Jika Anda kurang tertarik dengan TensorFlow, Google mungkin memiliki alternatif lain untuk Anda. Setidaknya, semacam itu. JAX adalah framework deep learning yang dikembangkan, dikelola, dan digunakan oleh Google, meskipun secara resmi bukan merupakan produk Google. Namun, jika Anda menelusuri publikasi dan rilis terbaru dari Google atau DeepMind selama setahun terakhir, Anda akan menyadari bahwa banyak riset mereka kini berpindah ke JAX. Jadi, meskipun bukan “produk resmi” Google, JAX adalah alat yang digunakan para peneliti Google untuk mendorong batasan inovasi.

Apa sebenarnya JAX itu? Cara termudah untuk membayangkannya adalah: bayangkan sebuah versi NumPy yang dipercepat dengan GPU atau TPU, yang mampu secara ajaib memvektorisasi fungsi Python dan menghitung seluruh turunan fungsi tersebut secara otomatis. Selain itu, JAX dilengkapi dengan komponen JIT (Just-In-Time) yang mengoptimalkan kode Anda untuk XLA compiler, menghasilkan peningkatan performa yang signifikan dibandingkan TensorFlow dan PyTorch. Tidak jarang eksekusi kode menjadi empat hingga lima kali lebih cepat hanya dengan mengimplementasikannya ulang menggunakan JAX, tanpa perlu melakukan optimasi khusus.

“JAX mengubah cara kita melihat komputasi numerik, dengan memberikan kecepatan dan efisiensi yang luar biasa melalui akselerasi GPU/TPU dan optimisasi Just-In-Time.”

Karena JAX bekerja di tingkat yang serupa dengan NumPy, penulisan kode JAX terjadi di tingkat yang lebih rendah dibandingkan TensorFlow/Keras, bahkan dibandingkan PyTorch. Beruntung, ekosistem proyek pendukung JAX terus berkembang. Jika Anda membutuhkan pustaka neural network, ada Flax dari Google dan Haiku dari DeepMind. Untuk kebutuhan optimasi, ada Optax, sementara PIX tersedia untuk pemrosesan citra, dan masih banyak lagi. Setelah Anda terbiasa menggunakan pustaka seperti Flax, membangun jaringan saraf di JAX menjadi jauh lebih mudah. Namun, tetap perlu diingat bahwa JAX masih memiliki sejumlah kekhasan; misalnya, cara penanganan angka acak di JAX berbeda dari framework lain dan memerlukan pemahaman tambahan.

Perlukah Anda langsung beralih sepenuhnya ke JAX dan mengikuti gelombang teknologi terbaru? Mungkin iya, jika Anda mendalami riset yang melibatkan model berskala besar yang membutuhkan sumber daya luar biasa untuk dilatih. Kemajuan yang ditawarkan JAX di bidang pelatihan deterministik, serta kemampuannya dalam menangani ribuan pod TPU secara efisien, mungkin sudah cukup menjadi alasan untuk mempertimbangkan transisi.

🚀 Mau menguasai TensorFlow, PyTorch, dan JAX?
Silahkan menghubungi Padepokan NEXT SYSTEM Bandung untuk pembelajaran praktis langsung dari ahlinya! Dapatkan pengetahuan mendalam dan keterampilan terdepan dalam deep learning, siap menghadapi tantangan industri masa depan. Daftar sekarang dan jadilah bagian dari komunitas inovasi yang akan mengubah dunia teknologi!

Master Class!

Pelatihan berbasis praktik menjadi salah satu pilar utama dalam membekali talenta muda dan profesional dengan keterampilan industri yang relevan dan aplikatif. Padepokan NEXT SYSTEM Bandung kembali menunjukkan komitmennya dalam membangun ekosistem pembelajaran teknologi yang berkualitas melalui berbagai kelas intensif yang diikuti oleh peserta dari beragam latar belakang.

Dalam dokumentasi kegiatan pelatihan yang berlangsung, tampak suasana penuh semangat dan keakraban antara peserta dan instruktur. Beberapa topik pelatihan unggulan yang diikuti antara lain:

  • Mastering Modbus and CAN Bus: Pelatihan ini membekali peserta dengan pemahaman dan praktik implementasi komunikasi industri berbasis protokol Modbus dan CAN Bus, yang banyak digunakan pada sistem otomasi dan kendaraan modern.
  • Internet of Things (IoT): IoT menjadi salah satu bidang yang sangat diminati. Para peserta belajar merancang dan membangun solusi berbasis perangkat pintar yang saling terhubung, serta mengakses data secara real-time untuk berbagai kebutuhan industri.
  • Programmable Logic Controller (PLC): Materi ini memberikan penguasaan dalam pemrograman dan pengendalian sistem otomatisasi industri menggunakan PLC, yang merupakan inti dari sistem manufaktur modern.
  • Matlab and PLC: Kombinasi penguasaan software Matlab dan hardware PLC membuka peluang analisis dan simulasi sistem kendali yang lebih efisien dan akurat.

Setiap peserta mendapatkan bimbingan langsung dari instruktur berpengalaman, sertifikat pelatihan, dan yang paling penting — pengalaman praktik yang memperkuat pemahaman teknis mereka. Dengan pendekatan personal dan suasana yang interaktif, Padepokan NEXT SYSTEM tidak hanya menyampaikan materi, tetapi juga membangun jejaring dan kolaborasi yang bermanfaat jangka panjang bagi para peserta.

Temporary National Data Center Ransomware Attack Reflects Indonesia’s Weak Cyber Security System

PIKIRAN RAKYAT – The cyber attack of the LockBit 3.0 brain cipher ransomware has breached the crucial data of the Indonesian Temporary National Data Center (PDNS) 2 in Surabaya, reflecting the vulnerability of cyber data security conditions in the country. The Indonesian government is considered to be far too careless, simplifying the issue by claiming it as some sort of error. They were expected to be more transparent in recognizing and admitting the weaknesses of the backup data, which is an important factor in the recovery of a system. Ransomware is malware that can lock computer data with encryption. In most cases around the world, the cybercriminal will blackmail the victim into paying a sum of ransom they had asked for. In the attack that happened to PDNS 2 last week, the ransomware locked the data and asked for a ransom of USD 8 million, or approximately 131,2 million Rupiah. Information and Technology Surveyor, Christianto Tjahyadi, predicts that the scale of this ransomware attack can result in an immeasurable impact exceeding 131,2 million Rupiah. The attack happened for a span of one week, and yet it has not fully recovered until now. The impacts would not be as severe if there were adequate backup data available.

“What must be underlined here is that such breaching incidents have happened repeatedly. This one is the most severe so far. I think it’s scary,” said Christianto to Pikiran Rakyat on Thursday, June 27, 2024. Christianto argued that this repeated incident reflects the vulnerability of Indonesia’s cyber security and backup data. The attack has successfully shut down the National Data Center (PDN) for a few days, and it is still not fully recovered until now. He also expressed his concern regarding the use of Windows Defender as the main antivirus for PDNS 2. Previously, the State Cyber and Cryptography Agency (BSSN) released a temporary forensic analysis report shows that Windows Defender is not capable of overcoming such attacks. According to him, the use of Windows Defender without the support of advanced firewalls for extra protection is an inadequate measure for critical infrastructures such as PDN. “To be honest, I am quite shocked that it was hacked, and as it turns out, they used Windows Defender for protection. That is for personal use. In the end, it’s not too surprising they were hacked. Aside from how this is possible, what I am really questioning is, how come the system’s backup data cannot be fully recovered?” said Christianto. As though building a house full of precious items, of course, the security system needs to be enhanced. It would be a totally different case if the house did not possess any of those items. “We are talking about the National Data Center (PDN) here, which means that the data possessed are all national data. Security must be anticipated because it is interlinked with the internet network. And, if they call this a ‘temporary’ data center, then nothing is temporary in the data,” he said.

Christianto continued, stating that the danger of these breaches is that people do not recognize that the hacked data is important. The government should have been more transparent about why the attack happened in order to educate people. People keep becoming victims of this matter most of the time because they cannot do anything about it. Looking back at the previous attack, the government needs to take crucial protection and mitigation steps more clearly in the future. The security ‘shield’ needs to be re-evaluated once more. Backup data requires special attention, more so when it is linked with crucial national-scale data. It’s no longer a secret that the recovery of a system really depends on the backup data it possesses. “Since we are discussing mindset and technology, which are developing continuously, obviously it needs to be updated because today’s attack is different from what happened in the past, and attacks in the future would be even more advanced,” he stated. PDN needs to have a resilient IT system that is capable of facing various disruption scenarios, including natural disasters, cyber attacks, and system failure.

Learning from Previous Mistakes

Christianto mentioned that ransomware attacks are not something new in the world of information technology. All companies and institutions are supposed to have their own cyber protection and mitigation measures when their systems are attacked. They must at least have great backup data, especially if the data they are managing and protecting is a national asset. It obviously requires layered security and a technologically advanced system to prevent breaches from happening. Even so, if it is still successfully hacked, the system can be quickly recovered because backup data is available. For example, the massive earthquake that happened in the United States in 1994 wrecked a number of offices and technological companies’ data centers. But, they managed to recover and reconnect with their partners from all around the world in just a matter of days. “For the year 1994, they surely have a clear mitigation plan. Moreover, 30 years later, the backup is much more advanced because technology has developed,” he said. Christianto also said that ransomware attacks have happened before, and there was an indicator when the attack occurred. The system could run normally again a few hours later with adequate backup data, although the hacker has sent a ransom letter. “So, when the alarm is not activated, of course it will be breached,” he uttered. The Verge reported that a health insurance company in the United States admitted that they have paid a ransom of 22 million US dollars to BlackCat. The ransomware group managed to hack Change Healthcare’s system, which belonged to UnitedHealth. They were also the same group behind the ransomware attack on a number of MGM casinos in Las Vegas. *** (Politeknik Negeri Bandung/Yeurley Arba Nabila)

Sumber: Pikiran Rakyat

Deteksi Wajah Sederhana dengan OpenCV

Pernah penasaran bagaimana aplikasi seperti kamera smartphone bisa mengenali wajah dengan akurat? Teknologi di baliknya—computer vision—ternyata bisa dipelajari dengan tools sederhana seperti Python dan OpenCV! Dalam tutorial singkat ini, Anda akan membuat program deteksi wajah dari webcam hanya dalam 15 baris kode. Cocok untuk pemula yang ingin mencoba projek AI pertama mereka!

Ingin lebih akurat? Coba ganti model dengan YOLO (You Only Look Once), yang menjadi bagian dalam pembelajaran Computer Vision di Padepokan NEXT SYSTEM Bandung.

import cv2

# 1. Load model deteksi wajah
face_cascade = cv2.CascadeClassifier('haarcascade_frontalface_default.xml')

# 2. Ambil video dari webcam
cap = cv2.VideoCapture(0)

while True:
  # 3. Baca frame per frame
  ret, frame = cap.read()

  # 4. Konversi ke grayscale
  gray = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY)

  # 5. Deteksi wajah
  faces = face_cascade.detectMultiScale(gray, 1.1, 4)

  # 6. Gambar kotak di sekitar wajah
  for (x, y, w, h) in faces:
    cv2.rectangle(frame, (x, y), (x+w, y+h), (255, 0, 0), 2)

  # 7. Tampilkan hasil
  cv2.imshow('Face Detection', frame)

  # 8. Berhenti saat tombol 'q' ditekan
  if cv2.waitKey(1) & 0xFF == ord('q'):
    break

# 9. Bersihkan resource
cap.release()
cv2.destroyAllWindows()