EP 84

Mengintip Masa Depan Web AI: Apa yang Disiapkan Google?

Bagikan:

Apakah kamu siap untuk menjelajahi masa depan web yang diperkuat oleh kecerdasan buatan? Ngobrolin WEB kali ini, kita akan mengintip ke balik tirai Google I/O 2024, bagaimana Google membagikan visi mereka tentang bagaimana Web AI akan mengubah cara kita berinteraksi dengan internet. Bersiaplah untuk menyaksikan teknologi canggih yang akan mengubah pengalaman browsing kamu menjadi lebih intuitif dan personal. Bayangkan mesin pencari yang dapat memahami konteks dan maksud di balik permintaan kamu Kunjungi https://ngobrol.in untuk catatan, tautan dan informasi topik lainnya.

Ringkasan Episode

Bantu Koreksi

Episode ini membahas update terbaru dari Google I/O 2024 dengan fokus utama pada Web AI atau on-device AI. Pembahasan dimulai dengan lanjutan dari episode sebelumnya yang membahas baseline, interrupt CSS, dan update web development lainnya. Namun, tema utama Google I/O dua tahun terakhir memang didominasi oleh AI, dengan Google yang terlihat mengejar ketertinggalan dari perusahaan lain melalui produk Gemini yang diintegrasikan ke berbagai lini produk mereka. Tiga topik utama yang dibahas secara mendalam adalah: (1) LLM inference di browser menggunakan teknologi WebAssembly dan WebGPU yang memungkinkan model seperti Gemma 2B berjalan langsung di perangkat user, (2) Visual Blocks, sebuah alat no-code untuk prototyping aplikasi AI dengan pendekatan drag-and-drop, dan (3) Transformers.js, library JavaScript yang mengkonversi model Python menjadi format yang dapat berjalan di browser. Episode ini juga menyinggung rencana Chrome untuk mengintegrasikan model AI secara built-in (disebut Gemini Nano) guna mengurangi kebutuhan download model yang besar—sebuah strategi menarik yang membedakan pendekatan Google dengan browser lain seperti Brave dan Arc yang masih mengandalkan server-side AI. Diskusi juga menyoroti pro dan kontra implementasi on-device AI, termasuk keuntungan seperti cost saving, latensi yang lebih rendah, dan privasi data yang lebih terjaga, di sisi kekurangan seperti beban download model yang besar (hingga 1-2GB) dan tuntutan perangkat yang mumpuni. Use case yang dianggap paling relevan untuk pendekatan ini adalah aplikasi dengan model spesifik seperti background removal, makeup tester, atau validasi KTP yang memprioritaskan privasi, dibandingkan aplikasi chat umum yang masih lebih efisien menggunakan server-side AI.

Poin-poin Utama

  • Tema Utama Google I/O 2024 adalah AI - Dua tahun terakhir, Google fokus besar pada pengembangan AI di semua lini produk dengan branding Gemini sebagai keluarga model yang mencakup berbagai variasi untuk use case berbeda (multimodal, code assistant, dll).
  • Arsitektur Web AI: Server-side vs Client-side - Ada dua pendekatan utama: cloud AI (proses di server, request-response) dan on-device AI (proses di browser menggunakan WebAssembly dan WebGPU). WebAssembly dan WebGPU menjadi teknologi kunci yang membuat AI bisa jalan di browser.
  • Keuntungan On-Device AI: Cost Saving, Latensi, dan Privasi - Tiga keuntungan utama: hemat biaya (tidak perlu kirim data ke server), latensi lebih rendah, dan privasi terjaga karena data tidak keluar dari device user. Ini sangat penting untuk aplikasi yang menangani data sensitif.
  • Kekurangan On-Device AI: Download Model & Beban Device - Kontra utama: user harus download model (bisa 1-2GB), dan memerlukan device yang mendukung WebGPU. Perlu profiling user dan fallback ke server-side jika device tidak mendukung. Use case yang justify download besar adalah aplikasi spesifik seperti AR makeup, furniture placement, atau deteksi KTP.
  • Transformers.js: Library JavaScript untuk Machine Learning di Browser - Library yang memungkinkan model Python (PyTorch/TensorFlow) dijalankan di JavaScript. Mendukung berbagai task seperti sentiment analysis, object detection, sketch recognition, dll. Menjadi foundation untuk tools seperti Visual Blocks.
  • Visual Blocks: No-Code/Low Code untuk Prototyping AI - Tools berbasis drag-and-drop untuk bikin pipeline AI dengan visual interface. Memudahkan prototyping tanpa coding langsung, cocok untuk demonstrasi cara kerja model AI dengan berbagai use case.
  • Chrome akan Include Built-in On-Device AI (Gemini Nano) - Chrome berencana menyertakan model AI langsung di browser, mirip konsep Docker layer. Use case utama: translation, summarization, code assistant. Ini akan mengurangi ukuran download karena sebagian model sudah ada di browser, dan bisa digunakan untuk aplikasi offline.
Transkrip Bantu Koreksi

0:00Halo halo halo selamat malam selamat hari Selasa walaupun sekarang kita bukan dari Selasa

0:27walaupun kita rekamannya bukan hari Selasa tapi teman-teman nontonnya di hari Selasa

0:32hari Selasa ya kan

0:34hari Selasa waktunya apa?

0:35waktunya ngobrolin web

0:38ngobrolin web

0:39harusnya hitung dulu ya 1,2,3 gitu kan

0:43ya itu ada countdownnya kayak tadi

0:46iya harus ada countdownnya

0:48nah ya kita rekaman lagi karena sayanya gak bisa berhalangan jadi gak bisa live

0:56Jadi malam hari ini kita sesi rekaman

0:58Kita mau bahas apa malam ini?

1:02Kita mau lanjut kali ya

1:03Bahas kemarin kan belum tuntas ya tentang IEO ya

1:06Nanggung tuh

1:07Dari IEO 2024

1:09Apa aja update-update nya

1:11Kemarin itu kita bahas seputar

1:13Kebanyakan seputar web

1:15Walaupun kita udah sempat bahas sekilas

1:17Tentang IEO juga ya

1:19Cuma lebih banyak ke

1:21Kayak baseline, interrupt

1:23CSS

1:24spekulasi media spesifikasi rule-rule API nah respect Rose sama itu ingat nggak yang

1:37di-dev.com terus yang suruh iya yang ya demo pertama kali ya penggular mobile apa namanya

1:50itu ya apa insight-insight Dev tool inside ya Dev tool inside itu udah dipersenjatai dengan

1:57AI juga dan memang kayaknya tema utama dari Google I o ke tahun lalu sama tahun ini ya

2:05dua tahun jauh dari AI ya dua tahun terakhir dua tahun terakhir semuanya tentang AI ya sepertinya

2:14Google sedang mengejar ketertinggalan ya dari perusahaan-perusahaan lain ya

Lihat transkrip lengkap

2:18Walaupun sebenarnya movement atau pergerakan ini dimulai sebenarnya dari Google juga gitu

2:28Iya, nggak ketinggalan

2:30Bikin GPT-1 ya, GPT-1 itu kan mulainya dari paper yang diterbitkan oleh engineer Google

2:41Attention is all you need

2:44jadi semua sekarang semua model yang pakai apa belakangnya tcpt bla bla bla poinnya

2:54detik Transformers itu berdasarkan konsep yang dulu dirumuskan cuma mungkin kalau bukan

3:02ketinggalan di airnya tapi buat produk user facing nya kali ya sekarang yang lagi itu

3:07geber besar-besaran sama Google

3:09nah sekarang Google

3:11baru jor-joran semua

3:13lini produk

3:16fitur yang ada AI-nya

3:17disebut sebagai Gemini

3:19ada yang

3:21apa namanya yang

3:23gemini.google.com ada apa lagi

3:25ada Gemini sebagai

3:27LLM-nya

3:30modelnya ada yang

3:32Gemini di cloud

3:33yang pakai Vertex lah ada

3:35apa lagi Gemini yang ada di Gmail di Google Docs dimana-mana namanya Gemini sama satu lagi karena

3:44kan emangnya tulis apa game ini itu a family of models jadi kayak game ini tuh kayak payungnya

3:53modelnya banyak variasinya terus kayak ada yang tokennya berapa lah poinnya kemampuannya lain-lain

4:01ada yang multimodel ada yang buat code assistant bla bla bla nah terus adeknya Gemini ada Gema ya Gemma itu yang versi open open accessnya bukan open source ini juga unik sih jadi brandingnya mereka mereka menekankan bahwa Gemma itu bukan

4:21open source jadi nggak tahu kenapa nanti cari cari artikelnya deh jadi apa tapi open access open

4:30dalam arti ya di

4:32apa, di upload ke

4:34Hugging Face, model-modelnya ya bisa

4:36diakses, cuma open source

4:38itu katanya ternyata terkait juga

4:40ke atribusi, terus

4:42distribusi kalau digunakan ulang, jadi mereka

4:44nyebutnya open access

4:46gimana-gimana

4:47lebih tepatnya apa?

4:50ini sih, kalau misalnya

4:52di bilang open source berarti training data

4:54yang untuk men-training jemanya juga di open

4:56oh gitu

4:58yang di open itu kan cuma bin file-nya aja

5:02iya udah jadi binary gitu hasilnya

5:05iya yes open access

5:09dan layer-layernya sudah ada input layer sama output layer-nya bisa dimodify

5:16tetapi layer tengahnya udah nggak bisa

5:19itu modelnya tuh sudah seperti itu

5:24kayaknya semua juga begitu ya yang yang beda kalau grok-grok sampai ini loh sampai trade

5:35Open sampai training data ini open Oh groknya groknya Twitter XS Oh iya kalau itu open source

5:45betul kalau itu open source kalau yang meta juga open access dia tidak open source kemudian mistral

5:53mistral juga open access kan ya open source coba kita lihat mistral dari apa C open source

6:05our three open source model open source berarti kalau mistral ada ada yang open source ada yang

6:15model jadi kayak Gemini juga kan si mistral ini kan ada yang namanya mistral ada yang mixtral

6:21bener gak Oh iya mix kenapa yang open mix trail itu yang siap pakai itu yang service-service

6:32service-service berbayar jadi apa SDK kayak Gemini lah kayak Gemini mix trail open source

6:41ada open source ada yang open access

6:50itu paitri paitri yang dari Microsoft tuh ada juga itu apa ya open access baru ya sepertinya

7:00sih udah paitri udah udah udah udah cukup lama yang lama-lama itu ya Nah jadi malam hari ini

7:13Nah, hubungannya sama kerjaan kita sebagai web dev ya.

7:19Apa aja yang istilahnya pekerjaan kita terdampak apa aja sih?

7:23Apa aja yang bisa kita manfaatkan untuk membangun aplikasi web

7:28atau ada aplikasi-aplikasi web yang ditenagai oleh AI gitu ya kira-kira ya.

7:34Khususnya yang di-announce di IO kemarin.

7:37Khususnya yang di-announce di IO.

7:39Kalau itu luas banget ya kalau semua berbeda.

7:42tapi kan ini berguna sih ini kayak sampel ini sampel aja maksudnya kalau Google bikin produk

7:49yang ABC itu kan pasti berarti kecenderungan trennya ke arah situ kalaupun kita enggak pakai

7:55produk Google misalnya nanti pakai produknya openai atau apalah Iya dijamin kita tetap

8:02bakal expected untuk bikin produk yang maksudnya jenis-jenis aplikasi yang setara lah yang mirip

8:09Oke nah yang pertama kita akan bahas ya ini recapnya ya Zoom in kurang gede Isi artikelnya Isi artikelnya kok jadi bunyi ini

8:24Kenapa bunyi duit?

8:28Nah, lihat

8:29Ini ya, jadi wrap up

8:33Kesimpulan atau beberapa hal yang menarik ya

8:38Yang pertama adalah, ini ada videonya

8:40teman-teman bisa nonton juga

8:42nonton sendiri

8:43judulnya adalah

8:46The Future of Web Apps

8:48ini apa aja yang akan dibahas

8:50yang pertama adalah

8:51yang di highlight itu bagian dari

8:55Web Assembly dan Web GPU

8:57kenapa?

8:59karena ternyata sekarang

9:01kita bisa mengakses

9:03bisa punya

9:05dua jenis app

9:06atau dua arsitektur

9:07yang pertama adalah yang server side

9:09yang memanfaatkan AI tapi di cloud.

9:13Jadi proses generation-nya,

9:15kalau gen AI kan proses generation-nya,

9:18itu terjadi di cloud atau di server.

9:21Service.

9:22Dari web itu cuma kirimkan data,

9:25text, semuanya text sih dikirimkan.

9:28Atau gambar.

9:29Gambar pun diubah jadi basic before,

9:32text juga.

9:33Jadi semua yang lewat itu text.

9:36Pasti text.

9:37Terus abis itu ya responsnya bisa bentuk teks, bisa bentuk gambar

9:41Walaupun dikirim tetap binary atau teks ya

9:44Tapi intinya adalah ada proses pengiriman data ke server

9:50Dan proses server mengirimkan data kembali ke klien

9:52Responsnya juga di aplikasi kita

9:56Request response

9:57Request response

9:59Mau web, mau mobile itu juga bisa ya

10:03Bisa memanfaatkan arsitektur cloud AI

10:06Nah ada satu arsitektur lagi yang muncul yaitu semua prosesnya terjadi di sisi browser atau di sisi klien.

10:21Nah di sini ada apa yang di highlight adalah JemaWeb ini.

10:25Jadi open model.

10:26Itu yang lagi pengen saya kulik.

10:28JemaWeb.

10:29open model dari Google yang bisa jalan di browser

10:34menggunakan user device

10:37ini kan web assembly ya

10:38kita udah pernah bahas cukup dalam tentang web assembly

10:41apa yang membedakan antara web assembly dengan biasa gitu ya

10:46itu penjelasannya kayaknya di atas deh

10:50ke atas sedikit

10:51scroll ke atas sedikit

10:54atas lagi

10:56Nah, itu kan yang ditekankan adalah client-side in a web browser bisa pakai CPU atau GPU.

11:05Nah, terus itu teknologinya WASM sama web GPU.

11:09Jadi, kalau fokusnya dari talk ini, ya itu web assembly sama web GPU.

11:17Lanjut.

11:19Cuman yang, yang mana di talk itu belum ini loh.

11:23Dia nggak ngasih tahu loh caranya.

11:24mungkin kena sebelum ekspor lebih lanjut ada yang sudah lihat antara masih belum ada masih

11:31cuma ngasih kayak ini link wasong ini link Jema silakan pakai itu belum coba sih sayang

11:40ada kayaknya sekilas pada lihat apa nonton videonya ada kayaknya jadi di video ini atau

11:48di artikel ini ada tiga hal yang utama yang pertama adalah bagaimana cara menjalankan lm

11:53browser dan kedua ada sebuah tools atau aplikasi baru yang namanya visual blocks ini seperti no

12:03code gitu tapi buat lm ya yang ketiga Bagaimana kita sebagai web developer bisa menggunakan

12:09JavaScript untuk berinteraksi dengan webai atau CLM yang jalan di browser gitu ya yang pertama

12:18Tapi ada caveatnya loh nanti mungkin kita bahas caveatnya tentang si LLM di browser ini karena enggak semua model bisa gitu yang baru bisa itu Gemma sama Falcon atau apa gitu disebut ada beberapa kita

12:37bahas mungkin mungkin ada di artikel ini mungkin ada ya kalau nggak salah minggu lalu kita udah

12:44running juga ya yang di browser ya

12:46web LLM itu

12:48udah sempat running juga

12:49itu web GPU ya kita

12:50iya itu pakai teknologinya

12:54web GPU jadi

12:55kenapa ini bisa memungkinkan

12:57karena salah satunya adalah web GPU jadi

12:59browser punya akses

13:01punya privilege sekarang punya privilege untuk

13:03mengakses GPU

13:05di komputer

13:08kita masing-masing atau komputer klien

13:09kita gitu komputer yang mengakses

13:12aplikasi kita

13:12memutar yang membuka app-nya membuka aplikasi kita dan dijalankan lm-nya dijalankan di GPU

13:21masing-masing klien gitu kira-kira kayak gitu dengan dengan apa dengan lm jalan di device

13:32yang pertama keuntungannya adalah cost saving sama seperti web assembly juga ya cost saving

13:38nah berarti masuk pro dan kontra aja nih

13:41pronya berarti kan ini nih

13:43pronya dulu

13:45memberatkan si user kita

13:48nah itu kontranya

13:49user harus

13:50punya

13:51user harus mampu menjalankan

13:55atau punya web gpu

13:57kalau gak punya dia gak bisa

13:59jalankan itu kan

14:00bagi teman-teman yang

14:03belum nonton videonya

14:05kalau nanti nonton videonya

14:07Sebagai contohnya yang dia sebut itu adalah

14:10Bayangkan kalau kita punya aplikasi untuk video call

14:16Yang ngeblur background

14:17Yang sering kita pakai

14:21Eka nih pakai nih

14:23Ngeblur background

14:24Dia bikin hitungnya ya

14:29Satu menit berapa frame

14:32Satu menit berapa frame

14:34dan kira-kira satu jam berapa kali meeting dan dengan perhitungan berarti total-total contohnya satu tahun bisa 52 billion frame yang diproses oleh server

14:50yang artinya terjadi cost di situ, ada cost gede banget ya mengirimkan data terus proses server balikin data untuk ngerender frame yang ngeblur.

15:01ya bayangin berapa biayanya buat ini kita aja baru berapa baru lima menit ini kan udah berapa frame

15:08kan yang harus diproses bayangin kalau pakai service terpisah nah ini hal yang bisa digunakan

15:14bisa ngeleverage apa fitur di device client-side kita sendiri terus kedua keuntungannya latensi

15:24atensi Yes jadi biadap ronyet tadi biaya performa mau saya jadi enggak harus nunggu latensi sama

15:32ketiga itu tuh privasi kan inovasi yang paling penting sebenarnya ini ya salah satu yang penting

15:38ya jadi data kita itu hanya data user ya hanya berkutak di prosesnya di-deliver sendiri ini

15:48terguna terutama di tempat-tempat yang punya apa sih undang-undang perlindungan data ya kan

15:53kadang-kadang agak ketat harus ada konsennya mungkin sepertinya letaknya harus mana di

16:00seperti UITE kita kan harus dihormati

16:02emang UITE ngatur

16:06perlindungan data?

16:07ngatur bro

16:08ngatur

16:09nanti kita undang ahlinya deh mas Inger

16:13ahli ya

16:14ahli undang-undang

16:17nah itu

16:19pronya apa tadi? biaya

16:21performa sama

16:22privacy user

16:25ya

16:26nah sekarang

16:29kekurangannya udah bahas pro, ya nanggung bahas kontra dulu

16:34Tadi kan memberatkan si user kan, user kita.

16:37Beratnya dalam hal pertama harus download modelnya.

16:41Itu kan, maksudnya berat itu kan macam-macam.

16:43Pertama harus download modelnya, kalau pakai model tertentu ya,

16:47nanti cuma ada, kita bakal bahas lagi yang udah built-in.

16:51Nah, itu pertama kalau pakai model custom harus download modelnya.

16:55Kedua, berat di itunya ya, tuntutan device-nya ya.

16:59sekarang berarti tuntutan kayak apa kalau pakai device yang redel mod kau mending-mending ini

17:08betal agak dulu dulu sempat gak kalau misalnya waktu masih awal-awal ini kalau kita pakai Zoom

17:18mau buat ganti background dia kan masih berat banget dan dia hanya memperbolehkan kita pakai

17:25green screen jadi nggak bisa pakai background sembarangan ya jadi ayahnya masih di train

17:34hanya pakai green screen jadi nanti bahkan ada itu di tes dulu kalau di enable bisa nggak gitu

17:42dan pakai CPU resursi gede banget jadi bisa panas CPU nya itu sempat keluar juga after itu keluar

17:52ada satu aplikasi yang untuk video call begitu yang terparti jadi dia mengganti kamera sebelum

18:01di-plugin ke Zoom atau ke jimmy segala macem saya lupa nama aplikasinya itu dan dia ada lebih mewah

18:11bukan apa itu dia lupa deh sudah karena nggak berhasil memproses image ya berarti memproses

18:27memproses image langsung dari dari CPU dan CPU ya lebih langsung di device jadi enggak

18:36dikirim ke server bahkan bisa voice isolation juga jangan itu kemudian ternyata sih Zoom makin

18:45nama makin baik atau AI ini makin itu diatasi sih kali itu dia pesisir jalan atau bahkan nah

18:55sekarang sudah Google meet bah iya Google meet lebih bagus lagi kan lebih keren lagi kan nih

19:02yang sudah sudah udah jauh lebih baik kan belum lagi device dulunya kameranya 480p kemudian 720p

19:13sekarang sudah TA sudah 1080p kan jadi makin besar image-nya makin berat juga kerjanya tuh

19:21berarti tuntutannya tinggi apa user kita maksudnya kalau kita bikin aplikasi untuk production ya

19:29kita harus profiling kita harus tahu kan user kita tuh jenis yang kira-kira kuat atau enggak alatnya

19:35soalnya kan risikonya juga dibagi dua kan di either device user nggak support sama sekali

19:44udah jadi ya udah nggak bisa pakai itu ya itu negatif juga satu atau alternatif kedua maksudnya

19:50ya kan sebetulnya kalaupun nggak jalan di GPU bisa jalan di CPU ya yang kita bahas kemarin itu minggu

19:57Nah, cuma misalnya berat, itu panas, hang di tengah-tengah.

20:02Itu kan maksudnya itu secara UX jelek banget dan frustrating kan, mengganggu.

20:08Mungkin misalnya di tengah-tengah meeting, lagi penting-pentingnya karena prosesnya terlalu berat, laptopnya atau HPnya user hang.

20:17Nah, itu berarti salah satu hal negatif yang perlu diantisipasi ya.

20:23Iya mungkin ada fallbacknya

20:26Oh kalau bisa dicek dulu

20:28Oh ini CPU-nya kurang mumpuni

20:30Misalkan ya mau gak mau harus pakai server side lagi

20:33Oke service

20:34Ada tuh

20:35Ada videonya di IO yang Bahas soal itu Yang videonya Kenji dan Maud Nah cari sendirilah nanti pokoknya konsepnya

20:49emang konsepnya emang seperti itu jadi cuma masalahnya sih kalau itu karena demo lebih

20:55simpel ya jadi cuma apa ngecek kalau supported pakai on device di browser pakai yang on device

21:03Kalau pakai browser lain bisa dibuka dari bukan Chrome

21:06Karena itu konteksnya

21:08Buat built-in AI yang di Chrome sih agak lain

21:12Tapi maksudnya bisa diterapkan juga

21:13Kalau misalnya nggak support

21:14Ya udah nge-call service kayak biasa

21:17Kayak yang sebelumnya

21:18Betul

21:20Jadi di sini kita bisa memanfaatkan

21:22Gema 2 billion parameters ya

21:25Bisa di-download

21:26Tersedia di Kaggle

21:28Kemudian

21:29Dari sisi

21:31ini dari sisi

21:33browsernya ya, chrome ya

21:36ada menyediakan interface API

21:38dan itu

21:40menariknya bisa dipakai bukan cuma

21:42buat Jema, bisa dipakai buat itu

21:43Microsoft V2

21:46Falcon

21:47Falcon RW1B

21:50stable LM3B

21:51yang baru supported

21:54baru supported itu baru ini

21:55tapi bisa dikonverti

21:58kalau ada model yang lain

21:59Kalau ngerti cara convertnya, konon bisa di convert juga model lain.

22:04Cuma masalahnya ini bukan ketahuan yang umum buat webdev.

22:10Ini bukan karena webdev ya.

22:14Pake python.

22:16Media pipe.

22:19Tapi ujung-ujungnya apa?

22:20Kalau nggak salah dia bisa convertnya meskipun mau convert.

22:24Yang saya nggak tahu ya mau coba lagi.

22:25Kenapa bisa atau tidaknya.

22:26bisa nge-convertnya pakai TFJS bisa nggak sih gitu nggak tahu ya

22:33ada nggak?

22:35di videonya itu diterangin sih apa nge-convertnya gimana cuma nggak masuk karena nggak paham

22:43setahu saya dia bakal di-convert jadi TF Lite sih sebenarnya ujung-ujungnya

22:47oh gitu?

22:48iya TF Lite ini kan

22:49turun-turun

22:50iya semua model yang bisa di-convert jadi TF Lite itu ya untuk ujung-ujungnya

22:55Karena belakangnya itu jadi TensorFlow.js tetep.

22:59Di belakangnya itu TensorFlow.js yang bisa nge-load TF Lite.

23:04TensorFlow.js gak bisa nge-load model-model yang keras. Keras model itu gak bisa langsung harus di convert.

23:10Itu yang setahu saya mungkin saya salah.

23:16Kayaknya iya. Kayaknya benar.

23:19Iya kan?

23:21Betul-betul.

23:22Dan saya pernah convert itu pakai python, gak mesti harus pakai media pipe ya.

23:28Saya pernah convert itu pakai tensorflow yang di python untuk convert itu.

23:35Cuma ini sedikit, bukan sedikit, totally mungkin sudah berbeda banget sama pengetahuan saya 3 tahun yang lalu untuk convert-convert model ini.

23:45Nah kalau misalnya, kalau yang contoh simpelnya, ada demo nya tuh, yang dari talk itu dan dari artikel itu kan tadi ada video yang contohnya.

23:58Ada demo nya, coba deh buka.

24:02Ada demo nya? Yang mana? Yang cleanshot?

24:07LLM Inference, yang paling bawah.

24:10Oh oke inference tuh apa sih sebenarnya artinya?

24:14Menebak

24:17Nah ini kodenya

24:20Belum tau?

24:22Gatau

24:23Ya apa itu yang di demoin di talknya Jason Mize sama Nali tadi

24:31Maksudnya mereka bilang inference tapi gak ngejelasin in detail inference itu apa

24:36sebentar barusan saya mencoba si ini kita pakai tools apa pakai tools streamyacht kan tadi saya coba backgroundnya di blur sama touch up

24:56experience beberapa saat dia pakai GPU loh berarti si streamyat ini pakai web GPU

25:03kelihatan sekarang GPU saya turun naik turun ya tadi tadi naik setelah saya matiin turun

25:12lihat aja udah jadi standar praktisi kalau kalau zoom dan yuk pakai kayak gitu ya kemungkinan

25:20stream yard dan lainnya juga semua bakal pakai kayak gitu juga kan Iya oh ini bisa

25:27demo-nya ya bisa ya live demo-nya juga bisa tuh buka link yang dibawahnya di private chat

25:34kalau pengen lihat musik bentuknya kayak gimana Oke kita lihat ya media pipe studio web apps nah

25:47itu yang itu screenshotnya yang tadi ada di artikel eh ioprap up itu kan ada screenshot

25:53yang ini yang ini yang di atas ini yang ini kan atasnya Aha Iya nah cuma itu kan video doang sekali

26:00enggak bisa dicoba beneran white master ya coba buka detiknya scan beli wajah pencet apa-apa buka

26:07Dev tool karena saya pengen tahu saya pengen tahu modelnya segera apa di di kita harus dulu sendiri

26:16udah punya kan itu model selection choose a model file Iya sengaja biar kelihatan di kanan jadi

26:24jangan di select dulu sekarang boleh selekan ya selek download dulu ya download dulu jadi itu kita literally download dulu

26:33oh iya bukannya udah punya ya belum ya eh punya ya gede loh ini udah pernah pake 2 giga berapa giga nih

26:45atau download model file by preferring with Google or email

26:52emailnya mas pica di safahmi.com

26:59loh oh ada agreement segala ya open access ini ya

27:07ya konsen

27:09duh kesini lagi dia responsibel di AI responsibel AI download S itu download yang bawah bawah

27:24download klik download tadi 1,35 Giga nah terus paling bawah Nah itu dia itu lightlo

27:35kecil ya kan transfer light tuh Iya itu yang kecil ada light 2B 2 billion GPU int4 ada yang

27:497B 7B berapa besar ya int4 tuh artinya apa ya integer kalau saya taunya Q4 itu kan quantize

28:04quantisation quantis 4 bit 4 bit kalau int apa ya oke sambil menunggu lagi download nggak

28:16bisa selesai apa enggak ini kan ada web element of inference API kan itu apa ya Google AI Edge

28:26Hai itu berarti on device nah ini nyebelin sih agak kita kan dulu Edge worker bla bla bla itu

28:34kan maksudnya server yang kayak di-centralize kan yang bisa ada apa replikanya di berbagai tempat

28:41Nah ternyata aparently kalau di dunia AI apapun yang ada kata edge itu maksudnya on device.

28:47Oh, oke.

28:50Nyebelin ya.

28:52Nyebelin nyebelin Apalagi ada browser namanya Edge Dulu setelah saya itu Edge itu di CDN Karena di Edge Computing di CDN kan

29:04Oh, di CDN kan.

29:07Jadi, computing-nya kita itu bisa di Edge, jadi nggak perlu ke load balancer.

29:15Jadi, anggap, imagine something like apa ya, image resize.

29:22Jadi kalau misalnya image kita besar dan kalau di web mau pakenya resize jadi yang kecil karena source set,

29:31itu bisa dilakukan di edge computing. Jadi di url kita yang di edge bisa ngeresize image di edge itu.

29:40Jadi nggak perlu bolak-balik ke server side. Itu bisa.

29:48Terus ada browser namanya edge.

29:50Iya ada berusaha lagi kalau namanya edge sekarang Google AI edge bukan cuma Google sih AI-nya

30:00chat GPT juga apa Microsoft phone-nya lah itu punya produk edge juga lupa nama panjangnya

30:07apa cuma pakai istilah edge jadi bukan computing AI-nya ada di CDN lagi tapi di on device ini

30:18mungkin apa ya pemahaman ekstrimnya gitu maksudnya kayak bego-begoannya nih bentuk CDN yang paling

30:25ekstrim adalah semua device user itu dianggap sebagai resource apa jadi kayak CDN kan kayak

30:33buat nge-serve dan buat mengolah yang disebar jadi banyak nah ini device user semua dianggap

30:40lagi CDN untuk satu orang, CDN untuk dia sendiri.

30:44Ada wasm nya 10 Mega.

30:4810 Mega ini wasm, genera wasm internal.

30:52Terus dia baca dulu 1 Giga itu model ya?

30:56Iya, 900 sekian Mega.

31:00Nah itu tadi yang dokumentasi LLM inference itu, ini adalah

31:04dokumentasinya kode Github yang tadi. Ingat kan tadi

31:08ada GitHub yang sampel demo-nya yang live demo-nya lagi kita jalanin itu jadi tiga tiga hal ini sepaket

31:16yang ini ya ini demo-nya masih belum saya masih kalau nge-load 1GB untuk aplikasi kita sih sakit

31:27ya ini error tapi dimarahin user lah ya error kayaknya salah deh Mas Liza Mas Liza downloadnya

31:34kan yang cus modelnya tar harus dianzip dulu ya Oh iya untar-untar dulu untar Universitas Tarumanegara

31:43Universitas TarGZ

31:45salah ya kita refresh dulu ya oke berarti ini implementasinya ini ya

31:55ya enggak ya ini contohnya mau saya ini kudanya nah yang saya enggak suka itu adalah dia sudah

32:04langsung JS delivery to low enggak ada sendiri ya mau lokal ya mau lokal Iya ada enggak belum

32:15cari sih saya baru kayak bentar tadi eh di dokumentasi lm inference coba deh buka kayaknya

32:22sekilas lihat npm install wait nah zoom in sambil oh oke nice tapi tetap di bawahnya sama nggak sih

32:32kayaknya sekilas kayaknya sama ya to deploy for all npm package for local staging kenapa kenapa

32:41nggak bisa dipublish karena biar ngeberat nggak tahu kenapa tuh tulisannya soalnya install the

32:48required package for local staging tapi bawahnya to deploy to the server suruh pakai yang JS deliver

32:54tadi itu kenapanya nanti nanti kita tanya selain coba sendiri kalau kenapa kan kita kedua tanya ya

33:08orangnya kalau kita nggak segera setelah selesai apa-apa ini belum jalan apa-apa udah muncul

33:19macem-macem tuh udah jalan tuh jepion model batidak detik GPU tuh jauh konsol-konsol konsol

33:29ya banyak banget analitiknya ya iyalah grafis tersebut running terus kemudian

33:37dia detik GPU fastening no window grade apalagi tuh eh udah bisa tuh coba who are you ada ininya

33:51enggak ada ente-ente langsung kita button Oh ini teks area Oh bukannya Oke I am our

34:01sandwich model beragak coba what is the meaning of life who is Ivan Kristianto nggak bisa cari

34:08online like dia Oh ya nggak bisa ya lupa nanti saya game-nya waktu itu akan ayam aneh belum

34:16satu gigi satu gigi minta macem-macem anebel to profile what can you do

34:27enggak bisa semua tapi kenceng banget ya Maksudnya beda ya experience ya ya lokal

34:38pakai-pakai Mas Lisa pakai-pakai pakai-pakai Mac atau pakai apa nih Windows pakai Windows

34:48Windows Oh pas manager bisa kelihatan GPU ini enggak sih GPU bisa-bisa bisa Oh tapi harus share

34:57screen jadinya bukan nggak bisa share Windows doang Oh ya pengen tahu bisa kelihatan enggak

35:02dia ya ya ya ya nanti coba kita kasih pertanyaan yang susah share screen yang ini ya tuh udah

35:12kan Eh belum nih udah belum ini udah oke ada GPU-nya enggak GPU ada-ada bentar ini diatur

35:22GPU nya ada disini kalau nggak salah

35:27Nah ini GPU

35:30Nah itu juga udah spike kan

35:34Tadinya nggak ngapa-ngapain

35:36Naik banget pas loading awal ya

35:40Coba tanya lagi

35:42Cukup cukup

35:45Apa yang susah

35:49kalau subjektif

35:52which one come first

35:55chicken or egg

35:55chicken or egg

35:57itu naik tuh

36:06susah

36:09naik tuh ada spike kan

36:12yang ini

36:13apa ya explain the story of javascript

36:16dia gak pernah bisa jawab apa

36:18about JavaScript programming language-language

36:29weh ini bisa nah itu GPU nya tuh bergerak bergerak bergerak bergerak bergerak bergerak bergerak bergerak

36:39berarti betul dia udah pakai GPU ya kan kalau begitu prosesnya selesai GPU nya turun

36:51turunnya ada itunya deh coba Scroll ke atas Scroll Scroll ke atas atas nah klik di choose a model file

37:03Hai selektornya nah dia indikator kok dia jalan dimana webgpu tuh udah diindikator jalan di web GPU dan betul udah di cross kita minggu lalu minta resep apa sih yang dia nggak bisa habis itu kita minta resep pancake dia bisa Iya resep pizza minggu lalu Oh gaduh Oh

37:28resepi for nggak bisa Indonesia minta resepnya resepi-recipe recipe recipe recipe recipe for

37:42gado-gado Indonesia food called gado-gado ini ya Iya enak sekarang minta resep pancake pizza pizza

37:58anebel nggak bisa juga tuh semua resepnya nggak bisa kalau ini kayaknya ayam anebel to provide

38:07information description Oh dia enggak enggak dapat konteks ini gitu maksudnya dia nggak ngerti bahwa

38:12minta resep gitu yang nggak bisa ayo I'm not able to access external information or engage in

38:19culinary activities dia enggak punya kuliner data-data kuliner tes sepi for pancake coba

38:27bisa tuh pancake bisa ini kayaknya pancake to build in the training model semua LLM apa ya

38:35tako bisa-bisa mungkin harus pakai give me a recipe for itu kayaknya nggak bisa

38:46what about pizza Oh sebelumnya Iya nggak konteks bisa-bisa cuma dia nggak ngerti

38:54itu pizza pizza kan Eropa ya kalau Asia apa ya selain gaduh-gaduh noodles chicken noodles ramen

39:11ramen ramen ramen ramen ramen noodles bisa bisa coba Mas Riza Mas Riza tulis I like indomie

39:26adilah ice cream originated from West Africa training data macam apa ini mas

39:40tulis alo my name is Riza and I like whatever my name is Riza and I like

39:51oke oke sekarang berikan nih was afrika what is my name nggak bisa-bisa satuannya

40:04berarti mungkin chatnya ini kalau kita lihat di solskode yang enggak embed

40:13misalnya mau bikin chat interface yang kayak data ini di-share kodenya di-share

40:28Oke ini saya coba saya coba modif-modif sedikit bisa enggak dikasih history bisa

40:37nanti kalau kita harus kita harus kalau gitu coba balik ke ini dong balik ke kodenya kodenya ada

40:52ini ini teks konteks Hai partial result teks konteks output partialisirnya makasih bukan-bukan

41:04submit loading the model bentar turun dikit ke bawah saat ini mana saat dia submit-submit saya

41:18Cuma mau lihat Tabmit Generate response Input value ya input LLM inference itu apa ini ya oh dari dia

41:32nggak bisa kita lihat ya

41:36kita masukin promptnya dimana sih? belum

41:39ini di form

41:42oh create prompt option

41:47dia output oh generate response metode-nya apa metode-nya yang diimport dari dari

41:58JS Deliver ini ini tugas kita semua untuk itu ya untuk explore lebih lanjut ya intinya adalah

42:09ini menggunakan LLM inference API dari Google AI Edge gitu ya buka ini ada enggak yang ditunya

42:19coba lihat npm-nya dong ke npm.js MediaPipe itu ada contoh lain nggak sih yang disediain

42:28maksudnya info-info ada

42:40ini ya

42:41experimental

42:43oke

42:46berarti file set resolver dulu

42:52wasm

42:54terus modelnya

42:55ya cuma begini doang

42:58Iya sama kayak yang iya sama kayak di dokumentasi tadi sih lln-inference itu

43:05itu nah kan coba klik di kanan prepare data

43:11serasa-serasa ini enggak sih sesingkat itu early early bait yang diburu hanya untuk IO Extended

43:21pasti tapi ini udah lengkap loh udah lumayan banyak loh Iya lengkap tapi

43:28yang atas itu bukan buat web ini doang ya ini doang ya

43:35tuh ini doang itu juga hanya bagian yang web loh yang IELTS kan mungkin beda lagi

43:43kayak gitu juga tapi pakai bahasanya karena TF Lite itu bisa jalan juga di Android

43:55iya bisa native model paling ya persis kayak gini cuma maksudnya beda bahasa aja

44:00oke oke anyway cukup kali ya kita bahas tentang ini ya

44:06cuma penasarannya tadi kan kita masih penasaran apa tuh LLM inference itu

44:12itu apa sih ada penjelasannya atau enggak ya minimal sekarang kita udah coba tanya gimana

44:23apa itu LLM?

44:25pasti dia gak ngerti

44:29inference dalam konteks LLM

44:35oh bisa loh, dia bisa jelasin

44:41gak mau

44:43explain

44:45explain seperti M5

44:51m-like m5 sejarah favorit of favorit nggak perlu ngapain be-share not be learning lm yet

45:03Yes you learn alfabet panjang juga dia eh eh bisa tuh enggak kayaknya enggak ya enggak kayak

45:13tetap sama jelas anak lima tahun ya jadi mudah menyingkul information and pattern for massive

45:20set of text and code. Penjelasan buat orang yang cukup umur. Predik, generate and answer.

45:26Itu dia sebenarnya jawabannya predik generate and answer Ya tapi at least dia bisa jelasin ya dia paham ya at least bisa jelasin nah ini bisa jadi topik untuk AI Extended

45:39kita bisa explore ya

45:41AI Extended lagi

45:42I O Extended

45:44sampai salah nama

45:46sampai salah kebanyakan AI

45:49ya jadi udah dapet ya

45:51saya sudah dapet topik

45:52nah

45:54jadi apa namanya ini

45:57Bisa membuka opportunity

46:02Kenapa? Karena satu bisa jalan di lokal masing-masing

46:07Walaupun memberatkan masing-masing user

46:09Ya tadi dengan segala kelebihan dan kurangan kan

46:12Betul

46:13Dengan memungkinkan untuk bikin seperti ini

46:20Kita bisa bikin misalkan apa ya

46:21Extension tapi pakai LLM

46:25nggak perlu dari ke server gitu kan tapi kalau misalnya saya 2GB 1GB gitu saya masih enggak

46:34puas loh ada 11,2 giga untuk user itu Iya apa kesnya yang yang bisa justify minta user untuk

46:46download 1,2 giga untuk jalanin aplikasi-aplikasi kita betul-betul kemarin itu kalau nggak salah

46:52sekarang use case nya

46:54kalau 1 giga itu

46:58kalau downloadnya

47:03sih gak masalah, storage nya

47:04yang mungkin sedikit

47:06berat, kalau download

47:081 giga mungkin kalau untuk

47:10traffic kayaknya udah normal ya, zaman sekarang

47:121 giga, 2 giga itu kayaknya udah

47:14di mobile loh mas, belum tentu

47:17loh, gak sih, kalau untuk

47:18mobile, sakit juga

47:21kalau PWA mungkin

47:22jadi sudah install sebelum sebelum di sebelum di jalani belum dipakai ya sebelum digunakan

47:31user udah punya ekspektasi bahwa itu akan behave seperti aplikasi kalau misalnya gini kayak anggap

47:39aja pakai senja atau pakai jemaah pakai multimodal daya yang bisa ah gemini yang vision pro vision

47:49itu yang bisa untuk make up atau untuk augmented augmented apa namanya augmented reality reality

48:01pakai pakai ngecoba ngedress something jadi waktu kita buka aplikasinya ada loadingnya ada ada

48:12palingnya dulu nih tapi selama lo yang model itu worth it gitu make sense make sense ya tapi kalau

48:20berarti ya udah ya udah pakai buat itu itali kalau kayaknya sampelnya chat ya ini kan sampelnya chat

48:29ya Mau enggak sih ada chat agent 1,2 Giga loh kan itu jadi sebelum kita load kita konsen dulu ini

48:39membutuhkan file 1,2 giga untuk download dan storage mau nggak kalau nggak mau ya kembali ke

48:45server gitu paling gitu di awal sama aja kayak kayak loading spinner gitu cookies atau apa

48:55cookies ngomongin enggak ada pertanyaan Ivan mau saya use case aplikasi jenis apa ya berarti jenis

49:01Yang bisa justify, nyuruh-nyuruh download kayak gitu.

49:06Maksudnya oke lah ada pop up gitu, ada dialog.

49:10Ini akan membutuhkan download seukuran kira-kira segini, downloadnya lamanya segini.

49:16Nah apa yang bikin user bilang oke, nggak nge-screenshot dan marah-marah di Twitter misalnya.

49:25Berarti harus ada use case yang justified.

49:27yang butuh banget yang membutuhkan sekali tanpa harus apa namanya ya dia mau nggak mau suka tidak suka harus download

49:36ya itu tadi sih itu contoh yang contoh yang make sense itu tadi

49:42Misalnya apa buat makeup atau pakaian atau buat itu yang apa di rumah kita terus orang jualan tokonya webstore jualan furniture,

49:52nyoba sofa itu gimana bentuknya kalau ditaruh di ruangan kita yang gitu-gitu sih mungkin orang paham ya.

50:00Kalau buat chat doang sih kelihatannya enggak.

50:02belum lebih tepatnya kalau saya pikir-pikirannya ya jadi lebih tak ke arah model yang lebih spesifik

50:13contohnya yaitu tadi model untuk ngeblur background jadi kalau dia spesifik kan jadi

50:20bukan general model jadi model spesifik itu ini size nya bisa lebih kecil jadi hanya bisa ngeblur

50:29background hanya bisa untuk warna lipstick hanya bisa mendetek mata untuk eyeshadow maybe jadi

50:40lebih make sense kalau yang hanya cuma kayak ratusan Mega sih kalau sampai gimana kalau

50:45spesifik dan multimodel ya kalau cuma teks doang kelihatannya user belum bisa terima ya

50:52Iya benar

50:54Gimana kalau misalkan aplikasi yang

50:56Tadi kan keunggulannya adalah

50:58Privacy kan

51:00Misalkan aplikasi yang membutuhkan

51:02Foto KTP

51:03Kita sambil foto KTP

51:05Iya

51:07Validate dulu di lokal

51:10Untuk client side itu sangat aman kan

51:12Maksudnya KTPnya gak akan dikirim ke server kan

51:14Tapi itu juga

51:16Di sisi yang lain itu juga besar kan

51:18Mungkin besar kan

51:20Mungkin gak sampai 1 giga

51:21kalau untuk ngedetect KTP tapi berapa puluh atau berapa ratus Mega kan harusnya itu

51:29mungkin juga kalau itu OCR kalau privacy kalau concernnya privacy atau mungkin apa ya kayak

51:38tools internal nggak sih kayak Mose apa dashboard atau apalah di perusahaan gitu ya kalau tools

51:44internal ya pasti make sense ya ya kalau tools internal pasti make sense internal tapi Mose kalau

51:49saya perusahaan besar kayak pernah lihat percakapan di Discord orang yang kerja di Ikea itu kan mereka

51:58apa networknya kalau internal kita kan bayangin yang akses tuh 10 orang gitu cuma kalau selevel

52:05Ikea itu kan sebetulnya user mereka ya itu banyak itu sangat banyak bisa diakses ratusan user kan

52:14cuma internal mereka

52:17nah kalau kayak gitu kan

52:19privacy make sense banget ya

52:21ya

52:22oke

52:24mungkin pembahasan tentang

52:27LLM di lokal

52:29kita

52:30tutup dulu, kita masuk ke

52:33bagian berikutnya yang tentang

52:35visual block ya

52:36jadi nantikan

52:38apa

52:40eksplorasi kita, salah satu dari kita

52:43atau salah dua dari kita di

52:45IO Extended ya, siapa tahu

52:47atau salah lima

52:49lima-limanya

52:50kita tahu tentang ini semua

52:53nah ini

52:55maksudnya Bung sih masih berhubungan

52:58cuma apa ya, dari perspektif

53:00yang beda, ada UI-nya

53:02ini visual block itu

53:04low code ya

53:06low code atau malah bisa dibilang no code

53:08cara no code untuk

53:09prototyping itu bermacam-macam

53:12macam jenis model yang ada yang tadi sempat dibahas Ivan sedikit model yang spesifik nah

53:18ini contoh-contohnya ini juga client-side jalannya di device kita sendiri yang bikin timnya ya timnya

53:27Google machine learning MLAI tapi kolaborasi dengan Hugging Face dan menariknya nah disini

53:39mungkin pas ya kita bahas tentang yang membuat ini memungkinkan terjadi salah satunya adalah transformer JS ini transformer JS ini awalnya adalah library Python kemudian dikonversi menjadi JavaScript

54:02Ada hubungannya sama itu nggak sih, Transformer film?

54:07Film nggak ada, sayang.

54:09Jadi, loh kok ini, GitHub-nya mana?

54:13disini itu senova itu loh senova ini senova transformers.js github.com senova slash senova

54:27slash transformers.js awalnya dia kayak apa ya ya developer lah ya developer terus iseng-iseng

54:41membuat tools untuk konversi dari python awalnya originali dari python namanya transformers juga

54:49jadi transformer GS gitu ya dia bikin semacam SDK nya gitu ya dia bisa pake javascript gitu

54:57abstraction layer di atas tensorflow kalau nggak salah jadi ini sebenarnya

55:07machine learning

55:08tools

55:11machine learning library sebenarnya

55:12jadi kita bisa melakukan

55:15macam-macam, bisa transforming

55:17bisa buat

55:18inference, bisa buat

55:20contohnya disini sentiment analysis

55:22bisa

55:23similarity research

55:26similarity search

55:28dan lain-lain

55:30dia pakai backendnya

55:34onyx runtime, jadi

55:36ini kayak standar gitu ya

55:38standar kesepakatan antara

55:39ada TensorFlow, ada

55:42Pythos, ada macam-macam ya

55:43jadi mereka jadi satu runtime

55:46supaya bisa saling berkomunikasi

55:48nah ini

55:49kemudian dia

55:52di hire sama Hugging Face

55:54sekarang dia sudah menjadi karyawan

55:56Hugging Face

55:57manusia juga bisa diakusisi ya

56:00banyak sekali

56:03contoh-contoh

56:04contoh-contoh tapi ya ini lagi apa Oh enggak enggak ini enggak pakai tapi ini bisa pakai

56:10npm bisa pakai apa namanya jstliver atau CDN ya ini ada contohnya nih contohnya misalkan kita

56:19mau pakai space recognition ada nih demonya realtime sketch recognition ada demonya dan

56:28ini ya browser ya Oh jadi tinggal pakai sebenarnya tinggal pakai cuma dia loading dulu tuh kan dia

56:35download dulu download tuh baru enggak tinggal pakai juga draw itu karena tadi kayak dibahas

56:45Ivan itu kan satu modelnya spesifik kita nggak bisa posisi resep kalau ini gambar

56:50ada mobil beach pantai pantai dimananya gambar ini pillow house cooler cooler cooler sih kasih

57:11ini house octagon ya betul benar table ini ada pintu komentar hospital rumah sakit apa

57:27sekecil itu oke ada namanya contoh menggunakan ringan in browser object detection Vanilla

57:36JavaScript tuh banyak ini nya demo-demonya tuh upload image ya jadi ini yang memungkinkan

57:44terjadinya yang tadi itu salah satunya node.js juga bisa jalan di server bisa jalan di client

57:51buat elektron buat browser extension macem ya jadi ini salah satu yang membuat kenapa Hai masih masih belum ngerti transform ini berarti library untuk mah apa yang sebenarnya macem

58:08ini ini NLP aja kodenya salah satu computer vision audio multimodal kalau yang eh kalau

58:21saya pernah pakai jadi kalau pakai apa kalau kita mau bikin rag dari trivel and generation itu kan

58:29dari dokumen kita mau cari yang ada di dokumen itu pakai transformer ini jadi caranya pipeline

58:37terus pipeline di sini kita bisa definisikan pipeline yang mau kita pakai fitur apa similarity

58:44search gitu atau sentiment analysis atau apa gitu cuma itu fiturnya udah ada udah specified

58:50maksudnya dia punya daftar apa aja yang bisa dipakai

58:53kita gak bisa nge-custom

58:54ada dokumentasinya

58:55dan dia udah nyediain modelnya juga

58:59dan modelnya bisa pakai yang tadi-tadi

59:00ini dokumentasi ya kita lihat ya

59:02misalkan

59:06pipelinesnya

59:08ya

59:09pipeline-nya

59:11text classification

59:13token classification, question answer

59:16text to text generation summarization ada semua Oh ada daftar model saya juga itu Iya daftar modelnya

59:29oke ini ada beberapa model yang dipakai punya dia juga ya dari birth dari mana gitu ini kan

59:40di sini kan Eh mana tadi yang transformers transformer ini

59:47ini jadi dia nyediain sekian model yang available betul ini versi low levelnya

1:00:00dari LLM yang kalau kita inference gitu ya ini versi low levelnya dibawahnya lagi

1:00:06nah ini yang harus diulik sama kita nih

1:00:10disbring star hubungannya sama visual blocks ini Oh visual box ini bikinnya pakai kebutuhan

1:00:27Kan tadi apa Transformers JS yang agak low level ya, mid level lah. Nah visual box ini yang beneran yang high level, yang UI yang wistful lah.

1:00:39Bisa langsung ekstrak pakai, tadi kan ada extraction ya, contohnya itu seminary research. Bisa kalau bisa kita ada data, bisa nge-extract, sorry data itu lebih tepatnya text ya, kalimat lah ya kalimat.

1:00:55Dia bisa nge-extract kalimat itu pakai transformer ini.

1:01:00Berarti dia bisa nge-pipeline dari modelnya.

1:01:03Jadi nge-pipeline fitur extraction yang dia pakai itu menggunakan model

1:01:10yang untuk, berarti si transformer ini sendiri menjalankan model itu

1:01:16untuk melakukan extraction data tadi itu.

1:01:19Comment-nya itu adalah extraction tapi menggunakan model.

1:01:22Ngerti nggak sih?

1:01:23Saya lagi berpikir.

1:01:25ya kayaknya perintahnya masing-masing sesuai model yang kita masukin sebagai argumen itu kan

1:01:34dan model-model yang kita pakai itu bisa menjalankan function atau perintah itu

1:01:43karena tadi sudah menggunakan runtime yang sama saat nge-build model itu

1:01:48kayak gitu kali ya

1:01:50Karena misalnya meskipun model dibuild pakai PyTorch atau dibuild pakai TensorFlow

1:01:58atau dibuild salah satu lagi apa pakai apa tadi tiga kan PyTorch tensorflow sama ee ada tadi di di tensorflow

1:02:12ee dokumentasinya

1:02:14JSnya

1:02:16bukan bukan coba ke TF

1:02:18bukan

1:02:20transformer

1:02:22transformer JSnya yang di

1:02:24di github

1:02:26itu atau Jack model dan transfer atau jx jadi reti gak kan ya Nah understand Oke ini contohnya

1:02:44ya jadi kita mau bikin konversi image jadi bentuknya kayak kartun image inputnya apa

1:02:54prosesornya apa

1:02:57terus model runningnya apa

1:03:00tambahin

1:03:02normalizer

1:03:05crop dan akhirnya jadi

1:03:07cartoonized output

1:03:08yang mau

1:03:12diganti apa

1:03:13coba klik di thumbnail yang atas

1:03:18yang kiri atas

1:03:19coba klik

1:03:23nah selek loh nggak otomatis otomatis berubah butuh butuh waktu karena Oh kenapa dia di-release

1:03:33karena sih karena si TF lightnya itu hanya bisa nge-accept image yang 512 kali 512 iya tapi ini

1:03:42512 kali 512 kan mungkin sisanya ikan posisi sisanya dengan putih Iya oke oke ini gimana

1:03:56cara ininya ya cara bacanya nggak ngerti soalnya ini image input ya udah tahu ya

1:04:03terus dihubungin ke itu masing-masing kotak namanya no

1:04:09terus ini riset and normalize input image jadi diresize dulu ke 512 kali 512 ya hasil akhirnya

1:04:24itu ya inputnya itu image outputnya sudah tensor which is floating number ya ya ya ya oke terus

1:04:36dinormalize akhirnya jadi tensor terus modelnya running yang ini storage Google API cartoon gun

1:04:44ini model ya modelnya ya tapi beliau ya kartun Gan terus habis itu masuk ke tensor pertama untuk

1:04:55normalize dulu dari 0 ke 255 nggak tahu nih normalis nih ngapain ada dokumentasinya enggak

1:05:05sih itu di kanan atas itu remap value range of input tensor Jadi kalau ada tensor yang diatas

1:05:11255 dia bikin supaya dari 0-255 kayaknya gitu ya mungkin ya tolong dikoreksi kalau salah kemudian

1:05:19di crop dan di resize Oh ini udah jadi kartun di sini habis itu di normalize lagi kalau ada

1:05:30angka-angka yang mungkin di luar dari 0 dan 255 gitu habis itu bisa lagi

1:05:36supaya sama dan di-upload supaya jadi dari ya image-nya dengan kan di sini ada get image

1:05:47size jadi dia cari tahu image size ini berapa kemudian di-research kembali ke

1:05:52with dan hate yang sesuai sama image size originalnya gitu ya jadi pertama dia image

1:05:59Terubah jadi tensor, setelah sudah dijalankan pakai model, dari tensor diubah lagi menjadi image, jadi output.

1:06:08Iya, karena kan tensornya 512x512 kan?

1:06:12Iya.

1:06:13Jadi harus butuh research lagi supaya ukuran.

1:06:16ukurannya sama sama yang originalnya ukuran dan formatnya balik jadi image lagi ya berarti yang

1:06:23terakhir yang paling terakhir dari paling terakhir itu tenser jadi image high preview hilang ya

1:06:31ini kalau untuk ada di contohnya kan itu ya apa remove background kan mana nggak ada di sini ya

1:06:44yaitu banyak itu tutup siluet style foto generator

1:06:53itu malah remove program ini jalan di browser Iya iya jalan di browser cepet

1:07:07juga ya bukan malah remove program kebalik ya kebalik ya Emang konsepnya gitu tapi kan

1:07:14berarti dia bisa mengetik mana yang program mana yang kebalik

1:07:17benar-benar

1:07:19ini menarik di

1:07:22ulik ya

1:07:23berarti ini adalah

1:07:28versi visualnya dari

1:07:30transformer JS ya, kalau transformer JS

1:07:32kita harus coding, kalau ini

1:07:34kita drag and drop

1:07:36katanya dimaksudkan

1:07:38ini buat prototyping

1:07:40jadi mesti kita nunjukkan

1:07:42kita ingin nunjukkan

1:07:43kita mau nunjukin cara kerjanya kayak gini inputnya seperti apa outputnya seperti apa

1:07:50kita enggak harus mau ini ada tapi bisa pakai visual block background removal ada

1:07:56running running dulu ya background from an image modelnya pakai modnet modnet device-nya web GPU

1:08:09tuh jadi bagus dari image-image jadi background langsung masuk background removal balik lagi ke

1:08:22image viewer sama image mister ini yang sisanya ya yang backgroundnya ya ya sandainya mau di

1:08:32di diri di Hai datanglah rambut-rambutnya tapi ya ke ekstrak ya bagus ya detail nah tapi si

1:08:45background mobile ini sih modelnya itu enggak pakai ini loh enggak pakai sensor lo dia langsung input

1:08:51image Iya ini model modnet ini atau kita mau ganti bisa kali ya terus running lagi dia bisa

1:09:00bria.ai bria.ai

1:09:04Wah kita harus kembali ke sini teman-teman bisa cek sendiri ya kita balik lagi ya silakan kalau

1:09:19main-main silakan ada banyak nih contoh-contohnya teks classification ada translation ada combine

1:09:26sama server-side juga oh ya Eka jadi AI Eka jadi Eka jadi jadi jadi freeze oke sudah sudah aman

1:09:42Use JavaScript, nah ini topik ketiga ya dari pembicaraan itu ya.

1:09:47Use JavaScript for Web AI at scale with Chrome.

1:09:52Jadi sebelumnya kita sudah menggunakan GEMA, modelnya loaded and run within the web page itself.

1:09:57Chrome is working on built-in on device AI where you could access model with standardized task-specific JavaScript API.

1:10:06dan itu bukan saja, Chrome juga mengupdate web GPU support untuk 16 bit floating point values

1:10:13WebAssembly memiliki proposal baru memori 64 untuk support 64 bit memory index yang akan membenarkan Anda untuk melihat model AI yang AI model than before Jadi modelnya bisa lebih besar lagi Nah intinya kan kita ada 3 hal kan

1:10:33Sebelum Mas Jason menutup, kayaknya saya ingat ini.

1:10:36WebAssembly ada proposal untuk menaikkan dia bisa 64-bit,

1:10:44supaya bisa men-load model 4GB.

1:10:47Kalau sekarang belum bisa.

1:10:49besar-besar tadi satu giga aja kita mikir ya ini mau dibikin biar bisa empat tapi

1:10:58mau secara infrastruktur ya nggak tahu kali disiapin dulu ya bukan infrasi

1:11:03mau saya secara cara kerja ada capability dulu jadi ini menarik sini ada tiga saya

1:11:13GDI web performance melihat 4GB download bagi user itu merana gitu apalagi betul teman mungkin

1:11:21kembali lagi ini konsepnya beda untuk researcher user case nya itu mau ngeresearch atau mau

1:11:29something internal mungkin main-main aja tadi ya kalau 4GB nah ini masih ke komunikasi ke user

1:11:36sih sebenarnya itu tadi kalau usernya

1:11:39udah tahu itu emang

1:11:40ada apalah background remover atau

1:11:43apa make up tester

1:11:44atau furniture

1:11:45furniture apa AR gitu

1:11:48ya kan ada ekspektasi bahwa itu

1:11:50bakal berat jadi lebih ke

1:11:52saya combine dengan UX juga sih

1:11:55dan ini kayaknya masih

1:11:58eksperimen jadi kalau teman-teman mau testing

1:12:00ya bisa kesini langsung

1:12:03cobain running di google

1:12:04collab atau

1:12:06Ini beda

1:12:08Beda kasus

1:12:09Oh beda ya

1:12:11Iya itu udah beda

1:12:13Beda-beda

1:12:15Bukannya dibahas tiga ya

1:12:18Empat

1:12:19Ya berarti empat

1:12:21Jadi

1:12:22Ini kan perkaranya

1:12:26Ada web GPU sama web assemblynya

1:12:28Di upgrade lah

1:12:29Intinya di upgrade biar lebih capable

1:12:32Capabilitynya ditingkatkan

1:12:34Karena ya itu

1:12:35Kita udah masuk ke era on device

1:12:38Apapun on device ya

1:12:39Tadi kita juga udah nyobain sendiri kan

1:12:42Tapi ada satu hal lagi yang menarik

1:12:44Coba deh buka di private chat

1:12:46Link yang paling bawah

1:12:48Itu tadi

1:12:50Jadi kan selama ini

1:12:52Kita mikir kalau on device AI

1:12:54Berarti harus download dulu

1:12:56Kayak yang tadi kan

1:12:57Nah sekarang Chrome rencananya

1:12:59Dia bakal include

1:13:01Di Chrome-nya

1:13:04Wow ini huge efeknya nah cuma itunya pasnya kayak nggak semua bisa jadi itu spesifik banget

1:13:22kalau yang di demo yang di IO itu translation yang paling use case yang paling utama dan itu

1:13:28lumayan universal kan ya itu translation terus apa ya ada code assistant ada apa explaining ada

1:13:36summarizer gitu lah pokoknya misalnya use case nya yang dicompoin sih kalau kita baca itu bisa

1:13:41minta summarize cistek atau explain cuma kalau yang paling banyak di demo-in dan kelihatannya

1:13:47bakal dikurs pertama sih translate oke cuma ini browser installer size bisa gede banget dong

1:13:55kita bisa review Scroll ke bawah ini ya ini jadi apa ya jadi yang Ivan khawatirkan bisa jadi ini

1:14:13terjawab disini dengan kita download Google Chrome yang sudah ada will innya mungkin enggak jadi

1:14:20atau tidak jadi 1GB, mungkin setengahnya atau seperempatnya yang perlu kita download

1:14:25seperti tadi kan perlu download 1GB mungkin sebagian sudah ada di Google Chrome mungkin 500MB sisanya 500 mega yang kita download mungkin ya jadi akan dan lagi kita tetap harus spesifik

1:14:39mau ngapain kan, maksudnya aplikasi kita

1:14:41yang butuh on device AI

1:14:43itu sebenarnya buat apa

1:14:44kan kalau

1:14:46kalau yang chat

1:14:49segala bisa itu kan yaudah lah

1:14:51pakai service aja kalau cuma chat text

1:14:53nah coba, translate-nya

1:14:55bisa di handle di sini

1:14:56dan itu ada demonya lupa video yang mana cari sendiri punya demonya adalah komban nge-review

1:15:06misalnya review jadi sentimen analisis misalnya pakai pakai model eksternal tapi untuk apa ya

1:15:13untuk toxicity detection misalnya bisa pakai yang bawaan dikro ini pakai yang apa on device

1:15:23help me write atau translation API bukannya

1:15:26demo ini lagi bahas demo yang I.O

1:15:31bisa juga jadi salah satu aplikasi pakai extension kita bisa gunakan untuk parental control mungkin ya

1:15:43jadi anak kita bisa dimonitori pakai AI

1:15:48jadi data itu tidak perlu dikirimkan kemana-mana

1:15:51jadi kalau dia buka situs-situs yang tidak save apapun itu bisa di automatic blog

1:16:02hoax and scam detection misalnya ada link-link yang dicurigakan gitu cuma suka disamarin

1:16:11misalnya apa ya eh orang-orang yang awam atau detik.com saya cuma detik.com ya nggak tahu

1:16:23apapunnya pola-pola yang scam atau bahaya bisa diblokir pakai extension nah contohnya kan writing

1:16:30assistance proofreading grammar correction refreshing itu itu kan use case yang umum ya

1:16:37Jadi, ekspektasinya adalah kalau use case yang umum nanti kita nggak usah.

1:16:42Bayangin dong kalau ada berapa ada ratusan atau ribuan atau jutaan website,

1:16:46masing-masing semua nyuruh user buat ngedownload model, pusing juga kan.

1:16:51Jadi, kalau use case yang umum, ya pakai ini.

1:16:55Nah, ini strategi yang menarik juga ya dari timnya Google Chrome.

1:17:02Karena sebelumnya kan sudah mulai ada browser-browser yang menambahkan AI.

1:17:07tapi kayaknya itu server site ya

1:17:09server site, dikirim kalau ini

1:17:11beneran ini browsernya

1:17:12misalkan ini Brave, Brave itu kan

1:17:15Chromium based juga kan ya

1:17:16nah dia punya Leo namanya kan

1:17:19Leo AI ini, buat asisten

1:17:21Art juga

1:17:22Art juga punya

1:17:23iya Art juga punya

1:17:26sama

1:17:27semua pada punya

1:17:29semua pada punya

1:17:31server

1:17:33server site kan

1:17:35Jadi datanya tetap dikirimin ke servernya mereka kan

1:17:39Kalau kita mau summarize

1:17:40Mau apa gitu kan

1:17:42Ini maksudnya apa

1:17:42Mau catatan dan lain-lain kan

1:17:45ARK juga ada

1:17:46ARK namanya adalah MAX ya

1:17:48M-A-X

1:17:50Nah ini

1:17:53Power up by browsing with API

1:17:57Wah ada suaranya

1:18:01Ini ketutup lagi mute-nya

1:18:05memang nggak boleh ini mute

1:18:07kita mute saja

1:18:09mute side, dah bisa kan

1:18:12nah ini misalkan kita taruh di apa, to do gitu semacam gitu ya

1:18:18jadi, tapi ini kembali lagi ini server side, dia pakai chat GPT

1:18:24pakai OpenAI berarti ya

1:18:26iya, OpenAI

1:18:28OpenAI, jadi ini adalah salah satu

1:18:32kalau offline nggak bisa ya

1:18:34Kalau misalnya internetnya dimatikan buka browser kalau misalnya browser lain AI nggak bisa jalan Kalau ini bisa Dan kelebihan lainnya terparti developer maksudnya kita siapapun kita yang bikin website

1:18:49kita bisa manfaatin ini kan.

1:18:51Sementara kalau tadi yang punyanya Arc, Brave, dan lain-lain, ya nggak bisa kan.

1:18:56Kita bikin aplikasi web app yang manfaatin itu.

1:19:00Seperti yang tadi sempat kita bahas

1:19:04Kalau yang tadinya mungkin download

1:19:06Apa

1:19:08Asisten AI nya itu

1:19:10900 Mega

1:19:12Mungkin dengan sudah ditambahin

1:19:14Nano ini kita tinggal

1:19:16Nambahin sedikit mungkin gitu

1:19:18Hasil

1:19:19Yang kita tambahin adalah

1:19:22Yang spesifik dengan kebutuhan

1:19:24Aplikasi kita kan

1:19:25Dengan kebutuhan kita ya betul

1:19:27Pengen gak sih suatu saat AI

1:19:29AI model ini sudah kayak docker layer gitu jadi kayak build kayak from

1:19:36gimana ya nano dia sudah ada layarnya terus kita bisa tambahin layer-layernya kita

1:19:43nanti di build jadi docker file

1:19:46iya jadi docker ya jadi kan docker file itu sendiri kan sudah ada layer-layer ya

1:19:52jadi kalau misalnya layer satu ada tidak tinggal tinggal nge-build atau nge-download

1:19:58layer yang belum ada

1:20:00someday

1:20:03kayaknya konsepnya udah ada deh

1:20:06konsepnya udah ada

1:20:07iya

1:20:09model ini ujung-ujungnya layer kan

1:20:12isinya semua

1:20:13layer-layer-layer kan

1:20:15sekarang ada tapi belum bisa di custom

1:20:18ya kan

1:20:19ya kayak si siapa Transformers JS

1:20:22tadi

1:20:22baru bisa di pipeline

1:20:26belum bisa di transfer

1:20:27baru bisa dipipelining

1:20:29jadi dechaining

1:20:31mungkin kalau pakai line chain bisa

1:20:33di chain ya, jadi pipenya dari

1:20:35input, parser

1:20:37segala macam proses

1:20:39sampai output

1:20:41itu bisa di chain, kalau misalnya yang saya

1:20:43maksud itu kan kayak docker

1:20:45docker image, jadi ada

1:20:47layer, layer, layer, layer

1:20:49jadi mungkin layer utamanya

1:20:52di bawah jempol nano

1:20:53terus mungkin diatasnya ada

1:20:55dari, I don't know

1:20:57misral vision vision layer di atas ada layer lipstick detection layer whatever layer bisa

1:21:10ditambah kalau user udah punya yang nggak ngedownload ulang ya misalnya udah ada background

1:21:15remover gitu ya ya keren banget bisa nyata mental aja gitu mungkin udah mikirkan sampai

1:21:24mungkin maybe I don't know ya mungkin terlalu susah kalau banyak yang mau itu kemungkinan walaupun

1:21:34susah pasti suatu saat ada yang bisa bikin deh ya kan kalau cukup banyak orang yang mau pakai dan

1:21:43ada bisnis case nya itu pasti ya bisa lah diputer-puter jadi bisa jadi setiap saat setiap

1:21:49Tapi suatu saat kita itu bisa nge-build our own custom model seperti our own custom docker image

1:21:56yang spesifik untuk kebutuhan kita.

1:21:59Kan kita kalau nge-build docker image kan mungkin basenya dari Debian.

1:22:04Tapi di atas Debian kan ada hal-hal yang kita butuhkan, nginx atau php-fpm.

1:22:10Jadi itu satu docker image.

1:22:12Sedangkan kalau misalnya kayak model AI,

1:22:16biaya dasarnya Gemini Nano atasnya vision vision khusus untuk KTP KTP vision misalnya jadi cukup

1:22:28satu model itu aja bisa dipakai spesifik untuk satu use case saya berharap suatu saat bisa

1:22:34seperti itu suatu saat oke oke kayaknya bakal bakal seperti itu sih karena sekarang pun udah

1:22:42tapi ya itu berdasarkan

1:22:45base nya, jadi misalkan

1:22:47yang base

1:22:48yang jadi

1:22:50base model itu kan sekarang banyak kan pakai lama, lama 1 atau lama 2 ya

1:22:56kemudian mixtral itu basenya lama juga

1:23:01mungkin nanti GMA itu ya, ya tadi di mini

1:23:05itu kan ini transfer learning kan maksudnya ya

1:23:08kalau dulu kan ImageNet tuh

1:23:10ImageNet yang punya segudang general data

1:23:15terus kita transfer learning hanya untuk

1:23:17ngedetect spesifik data

1:23:19misalnya hanya detect muka orang saja

1:23:21itu kan transfer learning

1:23:24ya

1:23:25kayaknya arahnya ke sana sih

1:23:29kalau yang dibaca ya

1:23:30tapi ya

1:23:32nanti gimana

1:23:34oke

1:23:36sepertinya

1:23:38pembahasan kita

1:23:40kita cukupkan sampai disini

1:23:42ada lagi yang mau disampaikan sebelum kita udahan

1:23:44Udah satu setengah jam loh

1:23:46Ngomongin ini doang

1:23:48Masih banyak, besok-besok lagi

1:23:49Tenang, tenang, masih banyak ya

1:23:52Materi Ayo Extended

1:23:53Iya, seru

1:23:56Dan tujuan kita untuk

1:23:58Bikin episode ini adalah

1:24:01Untuk mencari topik Ayo Extended

1:24:03Jadi pantangin aja

1:24:05Ayo Extended di

1:24:06Kota masing-masing

1:24:08Apakah nanti bakal ada

1:24:11Topik-topik yang menarik

1:24:14atau teman-teman pengen bahasnya apa nih?

1:24:16Pengen bahasnya apa?

1:24:19Yang pengen kita bahas terutama dari sisi web ya.

1:24:22Kalau kita ngomongin web doang,

1:24:26update yang minggu lalu ya kita bahas minggu lalu kan ada AI juga sih Tapi sebagian besar udah kita bahas kayak baseline ada macam ya Ada API baru juga Nah kalau yang ini berhubungan dengan AI karena memang si Google IONya memang fokusnya masih ke sana

1:24:48Sampai tahun ini, dua tahun belakangan fokusnya ke sana untuk mengarahkan kita untuk mulik ya, untuk mulik AI.

1:24:58Dan ini sih kayaknya bau-baunya buat on-device AI ini kelihatannya bakal di arah-arahnya bakal di push.

1:25:09Karena salah satunya indikatornya adalah gimmick, bukan gimmick sih cuma penggunaan istilah web AI.

1:25:16Sampai apa sih, di presentasi yang utama yang buat artikel itu tadi ada satu screen yang tulisannya web AI tidak sama dengan berbeda dengan cloud AI.

1:25:27Jadi kayak ada pembedaan antara web AI dan cloud AI.

1:25:32Nah web AI itu istilah yang digunakan untuk fokus ke on device tadi, client side.

1:25:39Nah ini nih.

1:25:40Jadi ya abis itu dia njelasin pro kontra dan lain-lainnya yang tadi udah kita bahas.

1:25:45Terus emang di-encourage kalau kalian bikin sesuatu ngulik pakai on device AI tadi,

1:25:51share dengan hashtag web AI.

1:25:53Nah, ini tuh ngingetin kayak bikin inget dulu PWA kan, Progressive Web App.

1:26:00Itu juga kan maksudnya itu konsep.

1:26:03Maksudnya sedangkan fitur-fiturnya kayak bisa di-install atau misalnya ada loading spinernya,

1:26:08maksudnya apa, secara UX dan performance bagus.

1:26:11Itu kan hal yang mungkin umum mungkin udah ada yang bikin sebelumnya cuma semua itu dirangkum dalam satu konsep PWA yang di Nah kelihatan web AI ini bakal jadi hype yang sama deh

1:26:27Untuk mengarah ke itu tadi, on-device AI, experience-nya ya dengan segala plus-minusnya,

1:26:34ada privacy, ada blablabla, dan mungkin kombinasi dengan hybrid server,

1:26:38cuma kelihatan web AI ini bakal jadi hype.

1:26:41Ramalan.

1:26:42Tapi saya apresiasi loh, saya apresiasi inisiatif Google ini dengan menyebut kata web AI yang lebih general

1:26:52instead of Gemini Web AI atau Gemma Web. Jadi lebih apa namanya, inklusif menurut saya.

1:27:00Lebih generik, jadi nggak, this is not about Google sih sebenarnya.

1:27:05Not only about Google.

1:27:08About Google, tapi bukan dengan cara yang kasar ya,

1:27:12maksudnya dengan cara yang cuma monopoli doang,

1:27:15ya kan pada akhirnya itu tadi,

1:27:18kayak sintaksnya itu kan bisa untuk model dari,

1:27:21nggak harus Gemini kan, bisa dipakai dengan model dari tempat lain,

1:27:26model lain bisa di-convert juga,

1:27:28kan itu secara nggak langsung memperluas penggunanya Google Chrome kan.

1:27:34kalau banyak developer bikin

1:27:37aplikasi yang bagus

1:27:39yang jalannya optimisnya

1:27:41sekarang di Chrome yaudah

1:27:42mereka ikut untung tapi dengan cara yang

1:27:45ya luas lah

1:27:47gak sempit dalam arti

1:27:49promote Gemini doang

1:27:51yes, jangan lupa juga

1:27:53walaupun di client side

1:27:56tapi kita bisa pakai hybrid juga kan

1:27:58bisa kombinasi antara on device sama server side ya jadi bisa dua itu enggak mesti hanya wah kalau jalan di klien doang berat dong gede gitu ya mungkin kita bisa server side nya

1:28:10mungkin tergantung kebutuhan

1:28:11tergantung kebutuhan

1:28:13betul, oke

1:28:15mungkin untuk episode ini

1:28:17sekian dulu, kalau mau ada

1:28:20episode follow up, boleh silahkan

1:28:22teman-teman komen ya

1:28:24di Instagram

1:28:25kalau masih suka tentang AI

1:28:28masih suka tentang AI komen kalau bosan tentang AI komen juga komen suruh bahasa

1:28:35kita bisa ganti iya apaan sih ini AI-AI mulu gitu ya ada yang mungkin ada yang apa ada yang

1:28:45parno gitu bakal tergantikan jadi takut ada pertanyaan klasik banget coba nanti tanya ke

1:28:54apakah aku akan digantikan oleh

1:28:56EI?

1:28:57ya nanti ditanya sendiri

1:28:58silahkan ke sana.in

1:29:01slash ngobrolinweb

1:29:03atau ada pertanyaan-pertanyaan

1:29:05seputar apapun

1:29:07nggak mesti hanya dibahas di episode ini

1:29:10nggak mesti mungkin pertanyaan umum

1:29:11silahkan tanyain aja

1:29:13kita diskusi di sana

1:29:14mungkin untuk malam ini udahan dulu

1:29:16terima kasih banyak buat semuanya yang sudah nonton

1:29:19dan sudah meramaikan

1:29:20sesi malam ini

1:29:22Kita ketemu lagi minggu depan

1:29:25Dengan topik-topik yang berbeda

1:29:27Apakah AI lagi atau enggak

1:29:28Tunggu aja ya

1:29:30Kita lihat

1:29:30Kita juga nggak tahu

1:29:32Nanti kita tanya AI

1:29:34Nanti kita tanya sama AI

1:29:37Selamat malam, selamat istirahat

1:29:40Sampai jumpa minggu depan, bye-bye

1:29:42Bye

Suka episode ini?

Langganan untuk update episode terbaru setiap Selasa malam!

Langganan Sekarang

Episode Terkait

Inovasi Web dari Google I/O 2024 - Ngobrolin WEB
EP 83

21 Mei 2024

Inovasi Web dari Google I/O 2024 - Ngobrolin WEB

Penasaran dengan perkembangan terbaru di dunia web yang diperkenalkan oleh Google pada konferensi tahunan mereka, Google...

Ngobrolin CORS & Browser Policy - Ngobrolin WEB
EP 125

16 Apr 2025

Ngobrolin CORS & Browser Policy - Ngobrolin WEB

Yuk mari kita diskusi dan ngobrol ngalor-ngidul tentang dunia web. Agar tetap up-to-date dengan teknologi web terkini. ...

Ngobrolin Interop 2024 - Ngobrolin WEB
EP 70

20 Feb 2024

Ngobrolin Interop 2024 - Ngobrolin WEB

Yuk mari kita diskusi dan ngobrol ngalor-ngidul tentang dunia web. Agar tetap up-to-date dengan teknologi web terkini. ...

Komentar