IPB: Menyongsong Masa Depan Robotika

Sabtu, 19 April 2025, menjadi momen penting bagi 103 mahasiswa Program Studi Teknologi Rekayasa Komputer, Institut Pertanian Bogor (IPB). Dalam rangka persiapan memasuki masa magang, mereka mengikuti kuliah pembekalan bertema “Robotics: Emerging Technologies and Best Practices“, yang menghadirkan Ir. Christianto Tjahyadi, M.Tr., sebagai narasumber.

Kuliah umum ini dipandu oleh Dodik Ariyanto, S.T.P., M.Si., dosen Program Studi Teknologi Rekayasa Komputer, berlangsung dari pk 10.00 – 12.00 WIB secara daring. Acara berlangsung dengan suasana yang antusias dan penuh semangat, mengingat seluruh peserta merupakan mahasiswa semester 7 yang tengah bersiap memasuki dunia kerja nyata.

Dalam sesi pembekalan, Ir. Christianto membahas berbagai perkembangan teknologi robotik terkini, mulai dari adopsi kecerdasan buatan dalam sistem otonom, integrasi sensor cerdas, hingga implementasi praktik terbaik di berbagai sektor industri. Beliau juga menekankan pentingnya kesiapan mahasiswa untuk beradaptasi terhadap perubahan teknologi yang dinamis, serta membangun keahlian teknis dan soft skill yang dibutuhkan dalam industri berbasis teknologi.

Dengan gaya penyampaian yang komunikatif dan inspiratif, Ir. Christianto tidak hanya membagikan teori dan konsep, tetapi juga pengalaman nyata dari dunia industri robotik. Hal ini membuka wawasan para mahasiswa mengenai tantangan dan peluang yang akan mereka hadapi saat terjun ke dunia profesional.

Kegiatan ini menjadi langkah awal yang sangat berarti dalam mempersiapkan mahasiswa IPB untuk berkontribusi aktif di era Revolusi Industri 4.0, sekaligus mempertegas komitmen IPB dalam mencetak lulusan yang adaptif, inovatif, dan kompeten di bidang teknologi rekayasa komputer.

TensorFlow, PyTorch atau JAX

Saat ini, terdapat tiga framework yang mendominasi dunia riset dan produksi deep learning. Masing-masing memiliki keunggulan tersendiri: satu dikenal karena kemudahan penggunaannya, satu lagi karena kelengkapan fitur dan kematangan ekosistemnya, dan satu lainnya karena kemampuan skalabilitasnya yang luar biasa. Lalu, framework mana yang sebaiknya Anda pilih?

Deep learning telah membawa perubahan besar maupun kecil dalam kehidupan kita sehari-hari. Mulai dari Siri dan Alexa yang memahami perintah suara, aplikasi penerjemah real-time di ponsel, hingga teknologi penglihatan komputer yang menggerakkan traktor pintar, robot di gudang, serta mobil otonom — setiap bulan, selalu ada inovasi baru yang bermunculan. Hampir seluruh aplikasi deep learning ini dikembangkan menggunakan salah satu dari tiga framework utama: TensorFlow, PyTorch, atau JAX.

Framework mana yang paling tepat untuk Anda gunakan? Dalam artikel ini, akan dibahas perbandingan ketiganya secara umum: TensorFlow, PyTorch, dan JAX. Pembahasan akan mencakup kekuatan masing-masing framework dalam berbagai jenis aplikasi, serta mempertimbangkan aspek lain seperti dukungan komunitas dan kemudahan penggunaan.

Mengapa Memilih TensorFlow?

Pada era 1970-an dan 1980-an, dunia komputasi punya slogan populer: “Tidak ada yang dipecat karena membeli IBM.” Di dekade 2010-an, hal serupa bisa dikatakan tentang penggunaan TensorFlow untuk deep learning. Namun seperti yang kita tahu, IBM akhirnya tersisih saat memasuki tahun 1990-an. Lalu, setelah tujuh tahun sejak dirilis pada 2015, apakah TensorFlow masih kompetitif di dekade baru ini?

Jawabannya: tentu saja. TensorFlow tidak diam di tempat. TensorFlow 1.x memang dikenal dengan pendekatan membangun grafik statis yang terasa kurang natural bagi pengguna Python. Namun sejak TensorFlow 2.x, kita bisa membangun model dengan mode “eager execution” untuk evaluasi operasi secara langsung — membuat pengalaman coding lebih mirip dengan PyTorch. Di tingkat atas, TensorFlow menawarkan Keras untuk kemudahan pengembangan, dan di tingkat bawah, ada XLA (Accelerated Linear Algebra) sebagai compiler optimasi yang meningkatkan kecepatan, terutama pada GPU. XLA juga merupakan kunci untuk memaksimalkan performa TPU (Tensor Processing Units) milik Google yang luar biasa dalam melatih model berskala besar.

Selain itu, TensorFlow juga telah lama unggul di banyak aspek. Mau menyajikan model dalam platform yang matang dan stabil? Ada TensorFlow Serving. Mau deploy model ke web, smartphone, atau perangkat IoT dengan sumber daya terbatas? TensorFlow.js dan TensorFlow Lite sudah sangat matang untuk kebutuhan tersebut. Dan jangan lupakan: hingga saat ini, 100% deployment produksi Google masih menggunakan TensorFlow — membuktikan skalabilitas dan keandalan platform ini.

“TensorFlow tetap menjadi pilihan utama untuk aplikasi produksi besar, dengan dukungan penuh terhadap perangkat keras seperti GPU dan TPU serta ekosistem yang sangat matang.”

Namun, harus diakui, belakangan ini terasa ada semacam “penurunan energi” di sekitar proyek TensorFlow. Migrasi dari TensorFlow 1.x ke 2.x, misalnya, terbukti sangat berat. Banyak perusahaan akhirnya memilih memindahkan kode mereka ke PyTorch daripada menghabiskan waktu untuk adaptasi besar-besaran. TensorFlow juga kehilangan popularitas di kalangan peneliti, yang lebih memilih fleksibilitas PyTorch — menyebabkan penurunan jumlah publikasi ilmiah berbasis TensorFlow.

Masalah lain muncul dari kisah Keras. Setelah menjadi bagian resmi dari TensorFlow, Keras belakangan kembali dipisahkan sebagai library independen dengan jadwal rilis sendiri. Meskipun perubahan ini mungkin tidak berdampak besar pada penggunaan harian, pembalikan keputusan yang begitu besar di versi minor tentu menimbulkan keraguan.

Meski demikian, TensorFlow tetaplah sebuah framework yang andal dengan ekosistem deep learning yang sangat luas. Anda bisa membangun aplikasi dan model dari skala kecil hingga besar dengan TensorFlow, dan akan bergabung bersama banyak komunitas pengguna lainnya. Hanya saja, untuk banyak pengembang dan peneliti saat ini, TensorFlow mungkin bukan lagi pilihan pertama.

Mengapa Memilih PyTorch?

Kini bukan lagi pendatang baru yang hanya membayangi TensorFlow, PyTorch telah menjadi kekuatan utama di dunia deep learning saat ini — utamanya dalam bidang riset, namun semakin banyak pula digunakan dalam aplikasi produksi. Dengan mode eager yang kini menjadi standar pengembangan baik di TensorFlow maupun PyTorch, pendekatan PyTorch yang lebih Pythonic melalui automatic differentiation (autograd) tampaknya telah memenangkan persaingan melawan konsep static graph.

Berbeda dengan TensorFlow, PyTorch tidak mengalami perubahan besar pada kode inti sejak penghapusan Variable API pada versi 0.4. (Sebelumnya, penggunaan autograd dengan tensor mengharuskan pemanggilan Variable; kini semua objek secara langsung berupa tensor.) Namun, bukan berarti perjalanan PyTorch tanpa hambatan. Misalnya, bagi pengguna yang telah melatih model di beberapa GPU, mungkin pernah menghadapi kebingungan antara penggunaan DataParallel dan DistributedDataParallel. Meskipun sebenarnya DistributedDataParallel sangat disarankan untuk hampir semua kasus penggunaan, DataParallel tetap tersedia dan belum resmi dihentikan.

Meskipun sebelumnya PyTorch tertinggal di belakang TensorFlow dan JAX dalam hal dukungan terhadap XLA/TPU, situasinya telah membaik secara signifikan sejak tahun 2022. Kini PyTorch mendukung akses ke TPU VM maupun dukungan gaya lama untuk TPU Node, serta memungkinkan deployment ke CPU, GPU, atau TPU melalui command-line tanpa perlu mengubah satu baris pun dalam kode. Jika Anda tidak ingin berurusan dengan kode boilerplate yang terkadang harus ditulis sendiri di PyTorch, Anda dapat memanfaatkan tambahan tingkat tinggi seperti PyTorch Lightning, yang memungkinkan Anda lebih fokus pada pekerjaan utama daripada harus menulis ulang training loop. Di sisi lain, meskipun pengembangan PyTorch Mobile terus berlanjut, kematangannya masih jauh dibandingkan dengan TensorFlow Lite.

“PyTorch telah memenangkan hati komunitas penelitian berkat pendekatannya yang lebih fleksibel dan Pythonic, serta kemudahan dalam eksperimen dengan model-model baru.”

Untuk kebutuhan produksi, PyTorch kini terintegrasi dengan berbagai platform yang bersifat framework-agnostic seperti Kubeflow. Selain itu, proyek TorchServe menangani detail deployment seperti scaling, monitoring metrik, dan batch inference, menawarkan solusi MLOps yang ringkas dan langsung dikelola oleh pengembang PyTorch sendiri. Apakah PyTorch mampu menangani skala besar? Meta (sebelumnya Facebook) telah menggunakan PyTorch dalam produksi selama bertahun-tahun, sehingga klaim bahwa PyTorch tidak mampu menangani beban kerja berskala besar dapat dipastikan tidak benar. Meski demikian, dapat dikatakan bahwa untuk pelatihan model yang sangat besar — melibatkan ribuan GPU atau TPU — PyTorch mungkin masih sedikit kalah ramah dibandingkan dengan JAX.

Akhirnya, ada satu faktor besar yang tak bisa diabaikan. Popularitas PyTorch dalam beberapa tahun terakhir hampir pasti terkait dengan kesuksesan pustaka Transformers dari Hugging Face. Memang, saat ini Transformers mendukung TensorFlow dan JAX juga, tetapi awalnya dibangun berbasis PyTorch dan hingga kini tetap sangat erat kaitannya dengan framework ini. Dengan meningkatnya dominasi arsitektur Transformer, fleksibilitas PyTorch dalam riset, dan kemudahan untuk mengakses berbagai model baru dalam hitungan hari atau bahkan jam setelah publikasi melalui model hub Hugging Face, tidak heran jika PyTorch kini semakin luas digunakan di berbagai kalangan.

Mengapa Memilih JAX?

Jika Anda kurang tertarik dengan TensorFlow, Google mungkin memiliki alternatif lain untuk Anda. Setidaknya, semacam itu. JAX adalah framework deep learning yang dikembangkan, dikelola, dan digunakan oleh Google, meskipun secara resmi bukan merupakan produk Google. Namun, jika Anda menelusuri publikasi dan rilis terbaru dari Google atau DeepMind selama setahun terakhir, Anda akan menyadari bahwa banyak riset mereka kini berpindah ke JAX. Jadi, meskipun bukan “produk resmi” Google, JAX adalah alat yang digunakan para peneliti Google untuk mendorong batasan inovasi.

Apa sebenarnya JAX itu? Cara termudah untuk membayangkannya adalah: bayangkan sebuah versi NumPy yang dipercepat dengan GPU atau TPU, yang mampu secara ajaib memvektorisasi fungsi Python dan menghitung seluruh turunan fungsi tersebut secara otomatis. Selain itu, JAX dilengkapi dengan komponen JIT (Just-In-Time) yang mengoptimalkan kode Anda untuk XLA compiler, menghasilkan peningkatan performa yang signifikan dibandingkan TensorFlow dan PyTorch. Tidak jarang eksekusi kode menjadi empat hingga lima kali lebih cepat hanya dengan mengimplementasikannya ulang menggunakan JAX, tanpa perlu melakukan optimasi khusus.

“JAX mengubah cara kita melihat komputasi numerik, dengan memberikan kecepatan dan efisiensi yang luar biasa melalui akselerasi GPU/TPU dan optimisasi Just-In-Time.”

Karena JAX bekerja di tingkat yang serupa dengan NumPy, penulisan kode JAX terjadi di tingkat yang lebih rendah dibandingkan TensorFlow/Keras, bahkan dibandingkan PyTorch. Beruntung, ekosistem proyek pendukung JAX terus berkembang. Jika Anda membutuhkan pustaka neural network, ada Flax dari Google dan Haiku dari DeepMind. Untuk kebutuhan optimasi, ada Optax, sementara PIX tersedia untuk pemrosesan citra, dan masih banyak lagi. Setelah Anda terbiasa menggunakan pustaka seperti Flax, membangun jaringan saraf di JAX menjadi jauh lebih mudah. Namun, tetap perlu diingat bahwa JAX masih memiliki sejumlah kekhasan; misalnya, cara penanganan angka acak di JAX berbeda dari framework lain dan memerlukan pemahaman tambahan.

Perlukah Anda langsung beralih sepenuhnya ke JAX dan mengikuti gelombang teknologi terbaru? Mungkin iya, jika Anda mendalami riset yang melibatkan model berskala besar yang membutuhkan sumber daya luar biasa untuk dilatih. Kemajuan yang ditawarkan JAX di bidang pelatihan deterministik, serta kemampuannya dalam menangani ribuan pod TPU secara efisien, mungkin sudah cukup menjadi alasan untuk mempertimbangkan transisi.

🚀 Mau menguasai TensorFlow, PyTorch, dan JAX?
Silahkan menghubungi Padepokan NEXT SYSTEM Bandung untuk pembelajaran praktis langsung dari ahlinya! Dapatkan pengetahuan mendalam dan keterampilan terdepan dalam deep learning, siap menghadapi tantangan industri masa depan. Daftar sekarang dan jadilah bagian dari komunitas inovasi yang akan mengubah dunia teknologi!

Master Class!

Pelatihan berbasis praktik menjadi salah satu pilar utama dalam membekali talenta muda dan profesional dengan keterampilan industri yang relevan dan aplikatif. Padepokan NEXT SYSTEM Bandung kembali menunjukkan komitmennya dalam membangun ekosistem pembelajaran teknologi yang berkualitas melalui berbagai kelas intensif yang diikuti oleh peserta dari beragam latar belakang.

Dalam dokumentasi kegiatan pelatihan yang berlangsung, tampak suasana penuh semangat dan keakraban antara peserta dan instruktur. Beberapa topik pelatihan unggulan yang diikuti antara lain:

  • Mastering Modbus and CAN Bus: Pelatihan ini membekali peserta dengan pemahaman dan praktik implementasi komunikasi industri berbasis protokol Modbus dan CAN Bus, yang banyak digunakan pada sistem otomasi dan kendaraan modern.
  • Internet of Things (IoT): IoT menjadi salah satu bidang yang sangat diminati. Para peserta belajar merancang dan membangun solusi berbasis perangkat pintar yang saling terhubung, serta mengakses data secara real-time untuk berbagai kebutuhan industri.
  • Programmable Logic Controller (PLC): Materi ini memberikan penguasaan dalam pemrograman dan pengendalian sistem otomatisasi industri menggunakan PLC, yang merupakan inti dari sistem manufaktur modern.
  • Matlab and PLC: Kombinasi penguasaan software Matlab dan hardware PLC membuka peluang analisis dan simulasi sistem kendali yang lebih efisien dan akurat.

Setiap peserta mendapatkan bimbingan langsung dari instruktur berpengalaman, sertifikat pelatihan, dan yang paling penting — pengalaman praktik yang memperkuat pemahaman teknis mereka. Dengan pendekatan personal dan suasana yang interaktif, Padepokan NEXT SYSTEM tidak hanya menyampaikan materi, tetapi juga membangun jejaring dan kolaborasi yang bermanfaat jangka panjang bagi para peserta.

Temporary National Data Center Ransomware Attack Reflects Indonesia’s Weak Cyber Security System

PIKIRAN RAKYAT – The cyber attack of the LockBit 3.0 brain cipher ransomware has breached the crucial data of the Indonesian Temporary National Data Center (PDNS) 2 in Surabaya, reflecting the vulnerability of cyber data security conditions in the country. The Indonesian government is considered to be far too careless, simplifying the issue by claiming it as some sort of error. They were expected to be more transparent in recognizing and admitting the weaknesses of the backup data, which is an important factor in the recovery of a system. Ransomware is malware that can lock computer data with encryption. In most cases around the world, the cybercriminal will blackmail the victim into paying a sum of ransom they had asked for. In the attack that happened to PDNS 2 last week, the ransomware locked the data and asked for a ransom of USD 8 million, or approximately 131,2 million Rupiah. Information and Technology Surveyor, Christianto Tjahyadi, predicts that the scale of this ransomware attack can result in an immeasurable impact exceeding 131,2 million Rupiah. The attack happened for a span of one week, and yet it has not fully recovered until now. The impacts would not be as severe if there were adequate backup data available.

“What must be underlined here is that such breaching incidents have happened repeatedly. This one is the most severe so far. I think it’s scary,” said Christianto to Pikiran Rakyat on Thursday, June 27, 2024. Christianto argued that this repeated incident reflects the vulnerability of Indonesia’s cyber security and backup data. The attack has successfully shut down the National Data Center (PDN) for a few days, and it is still not fully recovered until now. He also expressed his concern regarding the use of Windows Defender as the main antivirus for PDNS 2. Previously, the State Cyber and Cryptography Agency (BSSN) released a temporary forensic analysis report shows that Windows Defender is not capable of overcoming such attacks. According to him, the use of Windows Defender without the support of advanced firewalls for extra protection is an inadequate measure for critical infrastructures such as PDN. “To be honest, I am quite shocked that it was hacked, and as it turns out, they used Windows Defender for protection. That is for personal use. In the end, it’s not too surprising they were hacked. Aside from how this is possible, what I am really questioning is, how come the system’s backup data cannot be fully recovered?” said Christianto. As though building a house full of precious items, of course, the security system needs to be enhanced. It would be a totally different case if the house did not possess any of those items. “We are talking about the National Data Center (PDN) here, which means that the data possessed are all national data. Security must be anticipated because it is interlinked with the internet network. And, if they call this a ‘temporary’ data center, then nothing is temporary in the data,” he said.

Christianto continued, stating that the danger of these breaches is that people do not recognize that the hacked data is important. The government should have been more transparent about why the attack happened in order to educate people. People keep becoming victims of this matter most of the time because they cannot do anything about it. Looking back at the previous attack, the government needs to take crucial protection and mitigation steps more clearly in the future. The security ‘shield’ needs to be re-evaluated once more. Backup data requires special attention, more so when it is linked with crucial national-scale data. It’s no longer a secret that the recovery of a system really depends on the backup data it possesses. “Since we are discussing mindset and technology, which are developing continuously, obviously it needs to be updated because today’s attack is different from what happened in the past, and attacks in the future would be even more advanced,” he stated. PDN needs to have a resilient IT system that is capable of facing various disruption scenarios, including natural disasters, cyber attacks, and system failure.

Learning from Previous Mistakes

Christianto mentioned that ransomware attacks are not something new in the world of information technology. All companies and institutions are supposed to have their own cyber protection and mitigation measures when their systems are attacked. They must at least have great backup data, especially if the data they are managing and protecting is a national asset. It obviously requires layered security and a technologically advanced system to prevent breaches from happening. Even so, if it is still successfully hacked, the system can be quickly recovered because backup data is available. For example, the massive earthquake that happened in the United States in 1994 wrecked a number of offices and technological companies’ data centers. But, they managed to recover and reconnect with their partners from all around the world in just a matter of days. “For the year 1994, they surely have a clear mitigation plan. Moreover, 30 years later, the backup is much more advanced because technology has developed,” he said. Christianto also said that ransomware attacks have happened before, and there was an indicator when the attack occurred. The system could run normally again a few hours later with adequate backup data, although the hacker has sent a ransom letter. “So, when the alarm is not activated, of course it will be breached,” he uttered. The Verge reported that a health insurance company in the United States admitted that they have paid a ransom of 22 million US dollars to BlackCat. The ransomware group managed to hack Change Healthcare’s system, which belonged to UnitedHealth. They were also the same group behind the ransomware attack on a number of MGM casinos in Las Vegas. *** (Politeknik Negeri Bandung/Yeurley Arba Nabila)

Sumber: Pikiran Rakyat

Deteksi Wajah Sederhana dengan OpenCV

Pernah penasaran bagaimana aplikasi seperti kamera smartphone bisa mengenali wajah dengan akurat? Teknologi di baliknya—computer vision—ternyata bisa dipelajari dengan tools sederhana seperti Python dan OpenCV! Dalam tutorial singkat ini, Anda akan membuat program deteksi wajah dari webcam hanya dalam 15 baris kode. Cocok untuk pemula yang ingin mencoba projek AI pertama mereka!

Ingin lebih akurat? Coba ganti model dengan YOLO (You Only Look Once), yang menjadi bagian dalam pembelajaran Computer Vision di Padepokan NEXT SYSTEM Bandung.

import cv2

# 1. Load model deteksi wajah
face_cascade = cv2.CascadeClassifier('haarcascade_frontalface_default.xml')

# 2. Ambil video dari webcam
cap = cv2.VideoCapture(0)

while True:
  # 3. Baca frame per frame
  ret, frame = cap.read()

  # 4. Konversi ke grayscale
  gray = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY)

  # 5. Deteksi wajah
  faces = face_cascade.detectMultiScale(gray, 1.1, 4)

  # 6. Gambar kotak di sekitar wajah
  for (x, y, w, h) in faces:
    cv2.rectangle(frame, (x, y), (x+w, y+h), (255, 0, 0), 2)

  # 7. Tampilkan hasil
  cv2.imshow('Face Detection', frame)

  # 8. Berhenti saat tombol 'q' ditekan
  if cv2.waitKey(1) & 0xFF == ord('q'):
    break

# 9. Bersihkan resource
cap.release()
cv2.destroyAllWindows()

Embedded Machine Learning & Robot Operating System: 25.11.2024 – 06.12-2024

Pelatihan Embedded Machine Learning dan Robot Operating System kali ini begitu istimewa dengan kehadiran para pendekar hebat dari Politeknik Negeri Batam: Eko Rudiawan Jamzuri, S.ST., M.Sc. (Pembimbing Tim Robot Barelang), Anugerah Wibisana, S.ST., M.Tr.T, dan Rifqi Amalya Fatekha, S.ST., M.Tr.T. Durasi pelatihan 10 hari, 25.11.2024 – 06.12.2024, tidak membuat lelah, namun menjadi suntikan “nutrisi” untuk mengembangkan potensi saat kembali.
.
Terima kasih atas semangat dan dedikasinya dalam mengikuti pertapaan marathon ini! 🔥💪 .

IEEE: Feature Optimization for Short-Term Solar Power Forecasting using Bidirectional LSTM Networks

Artikel penelitian ketiga yang berjudul “Feature Optimization for Short-Term Solar Power Forecasting using Bidirectional LSTM Networks” telah terbit di IEEE Xplore, 23 November 2024, setelah di-seminasi pada 7th International Conference of Computer and Informatics Engineering (IC2IE), 2024.

Lokasi penelitian di Padepokan NEXT SYSTEM Bandung.

Abstrak

Solar energy offers the advantages of low cost, abundant availability, and environmental friendliness. However, energy conversion output fluctuates significantly, depending on weather and environmental conditions. Key influencing factors include solar irradiation, ambient temperature, relative humidity, photovoltaic (PV) surface temperature, and wind speed. This study investigates which of these parameters have the greatest impact on solar power output forecasting accuracy. The research examines feature optimization for short-term solar power forecasting using Bidirectional Long Short-Term Memory (BiLSTM) networks. Four feature selection methods—Pearson Correlation Test, Spearman Correlation Test, Recursive Feature Elimination (RFE), and Mutual Information (MI)—were applied to identify the most significant predictors. Results indicate that solar irradiance and PV surface temperature are the most critical predictors. The BiLSTM model, implemented with the Adam optimizer and the optimal feature subset, demonstrated superior performance, achieving a Mean Absolute Error (MAE) of 0.002766153 and a Root Mean Square Error (RMSE) of 0.008086442. A comparison of optimizers revealed that Adam yielded the best results, closely followed by RMSprop, whilst Stochastic Gradient Descent (SGD) exhibited lower performance. The optimized BiLSTM model substantially outperformed the baseline Autoregressive
Integrated Moving Average (ARIMA) model, with 86.36 times lower MAE and 34.91 times lower RMSE. These findings demonstrate the effectiveness of integrating feature optimization with deep learning methods in handling the complexity and non-linearity inherent in PV power output data. Consequently, it improves the precision of short-term solar power forecasting, which is crucial for efficient grid integration and management.

Artificial Intelligence of Things: 19.11.2024 – 23.11.2024

Matur nuwun, Dr. Ery Muthoriq, S.T., M.T., Kepala Program Studi Teknologi Rekayasa Otomotif di Politeknik Keselamatan Transportasi Jalan, atas partisipasi dan kehadirannya yang berharga di Padepokan NEXT SYSTEM Bandung 🙏

Kehadirannya untuk yang kesekian kali dalam 10 tahun terakhir, merupakan sebuah kehormatan yang sangat kami hargai.  Selamat bergabung di kelas dan topik pelatihan berikutnya, Pak 🙂

Overcoming Challenges and Achieving Success, 11.11.2024

Hari Senin, 11.11.2024, bertempat di ruang Coworking Space DSU GWM, Universitas Kristen Maranatha, Bandung, berkesempatan berbagi pengetahuan dan pengalaman, sekaligus membekali mahasiswa/i Prodi Manajemen, Fakultas Bisnis. Pertemuan yang dimulai pk 09.30, ternyata baru selesai pk 11.00, dari rencana semula hanya 60 menit.

Kiranya, apa yang disampaikan dapat menjadi inspirasi bagi teman-teman mahasiswa/i yang akan segera memasuki proyek akhir untuk persiapan skrips.

Kunjungan Dosen Politeknik Negeri Jakarta, 02.09.2024

Bapak Nana Sutarna, Ph.D. dan Ibu Dr. Prihatin Oktivasari adalah dua dosen pembimbing tesis saya saat menempuh studi di Program Magister Teknik Elektro di Politeknik Negeri Jakarta.  Kehadiran mereka di Padepokan NEXT SYSTEM Bandung, pada hari Senin, 2 September 2024, adalah sebuah kehormatan. Harapannya, Padepokan NEXT SYSTEM Bandung dan Politeknik Negeri Jakarta dapat melakukan kerjasama berkelanjutan, khususnya dalam rangka meningkatkan kualitas SDM. Hal ini selaras dengan salah satu visi dari Padepokan.