Mengintip Masa Depan Web AI: Apa yang Disiapkan Google?
Apakah kamu siap untuk menjelajahi masa depan web yang diperkuat oleh kecerdasan buatan? Ngobrolin WEB kali ini, kita akan mengintip ke balik tirai Google I/O 2024, bagaimana Google membagikan visi mereka tentang bagaimana Web AI akan mengubah cara kita berinteraksi dengan internet. Bersiaplah untuk menyaksikan teknologi canggih yang akan mengubah pengalaman browsing kamu menjadi lebih intuitif dan personal. Bayangkan mesin pencari yang dapat memahami konteks dan maksud di balik permintaan kamu Kunjungi https://ngobrol.in untuk catatan, tautan dan informasi topik lainnya.
Ringkasan Episode
Bantu KoreksiEpisode ini membahas update terbaru dari Google I/O 2024 dengan fokus utama pada Web AI atau on-device AI. Pembahasan dimulai dengan lanjutan dari episode sebelumnya yang membahas baseline, interrupt CSS, dan update web development lainnya. Namun, tema utama Google I/O dua tahun terakhir memang didominasi oleh AI, dengan Google yang terlihat mengejar ketertinggalan dari perusahaan lain melalui produk Gemini yang diintegrasikan ke berbagai lini produk mereka. Tiga topik utama yang dibahas secara mendalam adalah: (1) LLM inference di browser menggunakan teknologi WebAssembly dan WebGPU yang memungkinkan model seperti Gemma 2B berjalan langsung di perangkat user, (2) Visual Blocks, sebuah alat no-code untuk prototyping aplikasi AI dengan pendekatan drag-and-drop, dan (3) Transformers.js, library JavaScript yang mengkonversi model Python menjadi format yang dapat berjalan di browser. Episode ini juga menyinggung rencana Chrome untuk mengintegrasikan model AI secara built-in (disebut Gemini Nano) guna mengurangi kebutuhan download model yang besar—sebuah strategi menarik yang membedakan pendekatan Google dengan browser lain seperti Brave dan Arc yang masih mengandalkan server-side AI. Diskusi juga menyoroti pro dan kontra implementasi on-device AI, termasuk keuntungan seperti cost saving, latensi yang lebih rendah, dan privasi data yang lebih terjaga, di sisi kekurangan seperti beban download model yang besar (hingga 1-2GB) dan tuntutan perangkat yang mumpuni. Use case yang dianggap paling relevan untuk pendekatan ini adalah aplikasi dengan model spesifik seperti background removal, makeup tester, atau validasi KTP yang memprioritaskan privasi, dibandingkan aplikasi chat umum yang masih lebih efisien menggunakan server-side AI.
Poin-poin Utama
- •Tema Utama Google I/O 2024 adalah AI - Dua tahun terakhir, Google fokus besar pada pengembangan AI di semua lini produk dengan branding Gemini sebagai keluarga model yang mencakup berbagai variasi untuk use case berbeda (multimodal, code assistant, dll).
- •Arsitektur Web AI: Server-side vs Client-side - Ada dua pendekatan utama: cloud AI (proses di server, request-response) dan on-device AI (proses di browser menggunakan WebAssembly dan WebGPU). WebAssembly dan WebGPU menjadi teknologi kunci yang membuat AI bisa jalan di browser.
- •Keuntungan On-Device AI: Cost Saving, Latensi, dan Privasi - Tiga keuntungan utama: hemat biaya (tidak perlu kirim data ke server), latensi lebih rendah, dan privasi terjaga karena data tidak keluar dari device user. Ini sangat penting untuk aplikasi yang menangani data sensitif.
- •Kekurangan On-Device AI: Download Model & Beban Device - Kontra utama: user harus download model (bisa 1-2GB), dan memerlukan device yang mendukung WebGPU. Perlu profiling user dan fallback ke server-side jika device tidak mendukung. Use case yang justify download besar adalah aplikasi spesifik seperti AR makeup, furniture placement, atau deteksi KTP.
- •Transformers.js: Library JavaScript untuk Machine Learning di Browser - Library yang memungkinkan model Python (PyTorch/TensorFlow) dijalankan di JavaScript. Mendukung berbagai task seperti sentiment analysis, object detection, sketch recognition, dll. Menjadi foundation untuk tools seperti Visual Blocks.
- •Visual Blocks: No-Code/Low Code untuk Prototyping AI - Tools berbasis drag-and-drop untuk bikin pipeline AI dengan visual interface. Memudahkan prototyping tanpa coding langsung, cocok untuk demonstrasi cara kerja model AI dengan berbagai use case.
- •Chrome akan Include Built-in On-Device AI (Gemini Nano) - Chrome berencana menyertakan model AI langsung di browser, mirip konsep Docker layer. Use case utama: translation, summarization, code assistant. Ini akan mengurangi ukuran download karena sebagian model sudah ada di browser, dan bisa digunakan untuk aplikasi offline.
0:00Halo halo halo selamat malam selamat hari Selasa walaupun sekarang kita bukan dari Selasa
0:27walaupun kita rekamannya bukan hari Selasa tapi teman-teman nontonnya di hari Selasa
0:32hari Selasa ya kan
0:34hari Selasa waktunya apa?
0:35waktunya ngobrolin web
0:38ngobrolin web
0:39harusnya hitung dulu ya 1,2,3 gitu kan
0:43ya itu ada countdownnya kayak tadi
0:46iya harus ada countdownnya
0:48nah ya kita rekaman lagi karena sayanya gak bisa berhalangan jadi gak bisa live
0:56Jadi malam hari ini kita sesi rekaman
0:58Kita mau bahas apa malam ini?
1:02Kita mau lanjut kali ya
1:03Bahas kemarin kan belum tuntas ya tentang IEO ya
1:06Nanggung tuh
1:07Dari IEO 2024
1:09Apa aja update-update nya
1:11Kemarin itu kita bahas seputar
1:13Kebanyakan seputar web
1:15Walaupun kita udah sempat bahas sekilas
1:17Tentang IEO juga ya
1:19Cuma lebih banyak ke
1:21Kayak baseline, interrupt
1:23CSS
1:24spekulasi media spesifikasi rule-rule API nah respect Rose sama itu ingat nggak yang
1:37di-dev.com terus yang suruh iya yang ya demo pertama kali ya penggular mobile apa namanya
1:50itu ya apa insight-insight Dev tool inside ya Dev tool inside itu udah dipersenjatai dengan
1:57AI juga dan memang kayaknya tema utama dari Google I o ke tahun lalu sama tahun ini ya
2:05dua tahun jauh dari AI ya dua tahun terakhir dua tahun terakhir semuanya tentang AI ya sepertinya
2:14Google sedang mengejar ketertinggalan ya dari perusahaan-perusahaan lain ya
Lihat transkrip lengkap
2:18Walaupun sebenarnya movement atau pergerakan ini dimulai sebenarnya dari Google juga gitu
2:28Iya, nggak ketinggalan
2:30Bikin GPT-1 ya, GPT-1 itu kan mulainya dari paper yang diterbitkan oleh engineer Google
2:41Attention is all you need
2:44jadi semua sekarang semua model yang pakai apa belakangnya tcpt bla bla bla poinnya
2:54detik Transformers itu berdasarkan konsep yang dulu dirumuskan cuma mungkin kalau bukan
3:02ketinggalan di airnya tapi buat produk user facing nya kali ya sekarang yang lagi itu
3:07geber besar-besaran sama Google
3:09nah sekarang Google
3:11baru jor-joran semua
3:13lini produk
3:16fitur yang ada AI-nya
3:17disebut sebagai Gemini
3:19ada yang
3:21apa namanya yang
3:23gemini.google.com ada apa lagi
3:25ada Gemini sebagai
3:27LLM-nya
3:30modelnya ada yang
3:32Gemini di cloud
3:33yang pakai Vertex lah ada
3:35apa lagi Gemini yang ada di Gmail di Google Docs dimana-mana namanya Gemini sama satu lagi karena
3:44kan emangnya tulis apa game ini itu a family of models jadi kayak game ini tuh kayak payungnya
3:53modelnya banyak variasinya terus kayak ada yang tokennya berapa lah poinnya kemampuannya lain-lain
4:01ada yang multimodel ada yang buat code assistant bla bla bla nah terus adeknya Gemini ada Gema ya Gemma itu yang versi open open accessnya bukan open source ini juga unik sih jadi brandingnya mereka mereka menekankan bahwa Gemma itu bukan
4:21open source jadi nggak tahu kenapa nanti cari cari artikelnya deh jadi apa tapi open access open
4:30dalam arti ya di
4:32apa, di upload ke
4:34Hugging Face, model-modelnya ya bisa
4:36diakses, cuma open source
4:38itu katanya ternyata terkait juga
4:40ke atribusi, terus
4:42distribusi kalau digunakan ulang, jadi mereka
4:44nyebutnya open access
4:46gimana-gimana
4:47lebih tepatnya apa?
4:50ini sih, kalau misalnya
4:52di bilang open source berarti training data
4:54yang untuk men-training jemanya juga di open
4:56oh gitu
4:58yang di open itu kan cuma bin file-nya aja
5:02iya udah jadi binary gitu hasilnya
5:05iya yes open access
5:09dan layer-layernya sudah ada input layer sama output layer-nya bisa dimodify
5:16tetapi layer tengahnya udah nggak bisa
5:19itu modelnya tuh sudah seperti itu
5:24kayaknya semua juga begitu ya yang yang beda kalau grok-grok sampai ini loh sampai trade
5:35Open sampai training data ini open Oh groknya groknya Twitter XS Oh iya kalau itu open source
5:45betul kalau itu open source kalau yang meta juga open access dia tidak open source kemudian mistral
5:53mistral juga open access kan ya open source coba kita lihat mistral dari apa C open source
6:05our three open source model open source berarti kalau mistral ada ada yang open source ada yang
6:15model jadi kayak Gemini juga kan si mistral ini kan ada yang namanya mistral ada yang mixtral
6:21bener gak Oh iya mix kenapa yang open mix trail itu yang siap pakai itu yang service-service
6:32service-service berbayar jadi apa SDK kayak Gemini lah kayak Gemini mix trail open source
6:41ada open source ada yang open access
6:50itu paitri paitri yang dari Microsoft tuh ada juga itu apa ya open access baru ya sepertinya
7:00sih udah paitri udah udah udah udah cukup lama yang lama-lama itu ya Nah jadi malam hari ini
7:13Nah, hubungannya sama kerjaan kita sebagai web dev ya.
7:19Apa aja yang istilahnya pekerjaan kita terdampak apa aja sih?
7:23Apa aja yang bisa kita manfaatkan untuk membangun aplikasi web
7:28atau ada aplikasi-aplikasi web yang ditenagai oleh AI gitu ya kira-kira ya.
7:34Khususnya yang di-announce di IO kemarin.
7:37Khususnya yang di-announce di IO.
7:39Kalau itu luas banget ya kalau semua berbeda.
7:42tapi kan ini berguna sih ini kayak sampel ini sampel aja maksudnya kalau Google bikin produk
7:49yang ABC itu kan pasti berarti kecenderungan trennya ke arah situ kalaupun kita enggak pakai
7:55produk Google misalnya nanti pakai produknya openai atau apalah Iya dijamin kita tetap
8:02bakal expected untuk bikin produk yang maksudnya jenis-jenis aplikasi yang setara lah yang mirip
8:09Oke nah yang pertama kita akan bahas ya ini recapnya ya Zoom in kurang gede Isi artikelnya Isi artikelnya kok jadi bunyi ini
8:24Kenapa bunyi duit?
8:28Nah, lihat
8:29Ini ya, jadi wrap up
8:33Kesimpulan atau beberapa hal yang menarik ya
8:38Yang pertama adalah, ini ada videonya
8:40teman-teman bisa nonton juga
8:42nonton sendiri
8:43judulnya adalah
8:46The Future of Web Apps
8:48ini apa aja yang akan dibahas
8:50yang pertama adalah
8:51yang di highlight itu bagian dari
8:55Web Assembly dan Web GPU
8:57kenapa?
8:59karena ternyata sekarang
9:01kita bisa mengakses
9:03bisa punya
9:05dua jenis app
9:06atau dua arsitektur
9:07yang pertama adalah yang server side
9:09yang memanfaatkan AI tapi di cloud.
9:13Jadi proses generation-nya,
9:15kalau gen AI kan proses generation-nya,
9:18itu terjadi di cloud atau di server.
9:21Service.
9:22Dari web itu cuma kirimkan data,
9:25text, semuanya text sih dikirimkan.
9:28Atau gambar.
9:29Gambar pun diubah jadi basic before,
9:32text juga.
9:33Jadi semua yang lewat itu text.
9:36Pasti text.
9:37Terus abis itu ya responsnya bisa bentuk teks, bisa bentuk gambar
9:41Walaupun dikirim tetap binary atau teks ya
9:44Tapi intinya adalah ada proses pengiriman data ke server
9:50Dan proses server mengirimkan data kembali ke klien
9:52Responsnya juga di aplikasi kita
9:56Request response
9:57Request response
9:59Mau web, mau mobile itu juga bisa ya
10:03Bisa memanfaatkan arsitektur cloud AI
10:06Nah ada satu arsitektur lagi yang muncul yaitu semua prosesnya terjadi di sisi browser atau di sisi klien.
10:21Nah di sini ada apa yang di highlight adalah JemaWeb ini.
10:25Jadi open model.
10:26Itu yang lagi pengen saya kulik.
10:28JemaWeb.
10:29open model dari Google yang bisa jalan di browser
10:34menggunakan user device
10:37ini kan web assembly ya
10:38kita udah pernah bahas cukup dalam tentang web assembly
10:41apa yang membedakan antara web assembly dengan biasa gitu ya
10:46itu penjelasannya kayaknya di atas deh
10:50ke atas sedikit
10:51scroll ke atas sedikit
10:54atas lagi
10:56Nah, itu kan yang ditekankan adalah client-side in a web browser bisa pakai CPU atau GPU.
11:05Nah, terus itu teknologinya WASM sama web GPU.
11:09Jadi, kalau fokusnya dari talk ini, ya itu web assembly sama web GPU.
11:17Lanjut.
11:19Cuman yang, yang mana di talk itu belum ini loh.
11:23Dia nggak ngasih tahu loh caranya.
11:24mungkin kena sebelum ekspor lebih lanjut ada yang sudah lihat antara masih belum ada masih
11:31cuma ngasih kayak ini link wasong ini link Jema silakan pakai itu belum coba sih sayang
11:40ada kayaknya sekilas pada lihat apa nonton videonya ada kayaknya jadi di video ini atau
11:48di artikel ini ada tiga hal yang utama yang pertama adalah bagaimana cara menjalankan lm
11:53browser dan kedua ada sebuah tools atau aplikasi baru yang namanya visual blocks ini seperti no
12:03code gitu tapi buat lm ya yang ketiga Bagaimana kita sebagai web developer bisa menggunakan
12:09JavaScript untuk berinteraksi dengan webai atau CLM yang jalan di browser gitu ya yang pertama
12:18Tapi ada caveatnya loh nanti mungkin kita bahas caveatnya tentang si LLM di browser ini karena enggak semua model bisa gitu yang baru bisa itu Gemma sama Falcon atau apa gitu disebut ada beberapa kita
12:37bahas mungkin mungkin ada di artikel ini mungkin ada ya kalau nggak salah minggu lalu kita udah
12:44running juga ya yang di browser ya
12:46web LLM itu
12:48udah sempat running juga
12:49itu web GPU ya kita
12:50iya itu pakai teknologinya
12:54web GPU jadi
12:55kenapa ini bisa memungkinkan
12:57karena salah satunya adalah web GPU jadi
12:59browser punya akses
13:01punya privilege sekarang punya privilege untuk
13:03mengakses GPU
13:05di komputer
13:08kita masing-masing atau komputer klien
13:09kita gitu komputer yang mengakses
13:12aplikasi kita
13:12memutar yang membuka app-nya membuka aplikasi kita dan dijalankan lm-nya dijalankan di GPU
13:21masing-masing klien gitu kira-kira kayak gitu dengan dengan apa dengan lm jalan di device
13:32yang pertama keuntungannya adalah cost saving sama seperti web assembly juga ya cost saving
13:38nah berarti masuk pro dan kontra aja nih
13:41pronya berarti kan ini nih
13:43pronya dulu
13:45memberatkan si user kita
13:48nah itu kontranya
13:49user harus
13:50punya
13:51user harus mampu menjalankan
13:55atau punya web gpu
13:57kalau gak punya dia gak bisa
13:59jalankan itu kan
14:00bagi teman-teman yang
14:03belum nonton videonya
14:05kalau nanti nonton videonya
14:07Sebagai contohnya yang dia sebut itu adalah
14:10Bayangkan kalau kita punya aplikasi untuk video call
14:16Yang ngeblur background
14:17Yang sering kita pakai
14:21Eka nih pakai nih
14:23Ngeblur background
14:24Dia bikin hitungnya ya
14:29Satu menit berapa frame
14:32Satu menit berapa frame
14:34dan kira-kira satu jam berapa kali meeting dan dengan perhitungan berarti total-total contohnya satu tahun bisa 52 billion frame yang diproses oleh server
14:50yang artinya terjadi cost di situ, ada cost gede banget ya mengirimkan data terus proses server balikin data untuk ngerender frame yang ngeblur.
15:01ya bayangin berapa biayanya buat ini kita aja baru berapa baru lima menit ini kan udah berapa frame
15:08kan yang harus diproses bayangin kalau pakai service terpisah nah ini hal yang bisa digunakan
15:14bisa ngeleverage apa fitur di device client-side kita sendiri terus kedua keuntungannya latensi
15:24atensi Yes jadi biadap ronyet tadi biaya performa mau saya jadi enggak harus nunggu latensi sama
15:32ketiga itu tuh privasi kan inovasi yang paling penting sebenarnya ini ya salah satu yang penting
15:38ya jadi data kita itu hanya data user ya hanya berkutak di prosesnya di-deliver sendiri ini
15:48terguna terutama di tempat-tempat yang punya apa sih undang-undang perlindungan data ya kan
15:53kadang-kadang agak ketat harus ada konsennya mungkin sepertinya letaknya harus mana di
16:00seperti UITE kita kan harus dihormati
16:02emang UITE ngatur
16:06perlindungan data?
16:07ngatur bro
16:08ngatur
16:09nanti kita undang ahlinya deh mas Inger
16:13ahli ya
16:14ahli undang-undang
16:17nah itu
16:19pronya apa tadi? biaya
16:21performa sama
16:22privacy user
16:25ya
16:26nah sekarang
16:29kekurangannya udah bahas pro, ya nanggung bahas kontra dulu
16:34Tadi kan memberatkan si user kan, user kita.
16:37Beratnya dalam hal pertama harus download modelnya.
16:41Itu kan, maksudnya berat itu kan macam-macam.
16:43Pertama harus download modelnya, kalau pakai model tertentu ya,
16:47nanti cuma ada, kita bakal bahas lagi yang udah built-in.
16:51Nah, itu pertama kalau pakai model custom harus download modelnya.
16:55Kedua, berat di itunya ya, tuntutan device-nya ya.
16:59sekarang berarti tuntutan kayak apa kalau pakai device yang redel mod kau mending-mending ini
17:08betal agak dulu dulu sempat gak kalau misalnya waktu masih awal-awal ini kalau kita pakai Zoom
17:18mau buat ganti background dia kan masih berat banget dan dia hanya memperbolehkan kita pakai
17:25green screen jadi nggak bisa pakai background sembarangan ya jadi ayahnya masih di train
17:34hanya pakai green screen jadi nanti bahkan ada itu di tes dulu kalau di enable bisa nggak gitu
17:42dan pakai CPU resursi gede banget jadi bisa panas CPU nya itu sempat keluar juga after itu keluar
17:52ada satu aplikasi yang untuk video call begitu yang terparti jadi dia mengganti kamera sebelum
18:01di-plugin ke Zoom atau ke jimmy segala macem saya lupa nama aplikasinya itu dan dia ada lebih mewah
18:11bukan apa itu dia lupa deh sudah karena nggak berhasil memproses image ya berarti memproses
18:27memproses image langsung dari dari CPU dan CPU ya lebih langsung di device jadi enggak
18:36dikirim ke server bahkan bisa voice isolation juga jangan itu kemudian ternyata sih Zoom makin
18:45nama makin baik atau AI ini makin itu diatasi sih kali itu dia pesisir jalan atau bahkan nah
18:55sekarang sudah Google meet bah iya Google meet lebih bagus lagi kan lebih keren lagi kan nih
19:02yang sudah sudah udah jauh lebih baik kan belum lagi device dulunya kameranya 480p kemudian 720p
19:13sekarang sudah TA sudah 1080p kan jadi makin besar image-nya makin berat juga kerjanya tuh
19:21berarti tuntutannya tinggi apa user kita maksudnya kalau kita bikin aplikasi untuk production ya
19:29kita harus profiling kita harus tahu kan user kita tuh jenis yang kira-kira kuat atau enggak alatnya
19:35soalnya kan risikonya juga dibagi dua kan di either device user nggak support sama sekali
19:44udah jadi ya udah nggak bisa pakai itu ya itu negatif juga satu atau alternatif kedua maksudnya
19:50ya kan sebetulnya kalaupun nggak jalan di GPU bisa jalan di CPU ya yang kita bahas kemarin itu minggu
19:57Nah, cuma misalnya berat, itu panas, hang di tengah-tengah.
20:02Itu kan maksudnya itu secara UX jelek banget dan frustrating kan, mengganggu.
20:08Mungkin misalnya di tengah-tengah meeting, lagi penting-pentingnya karena prosesnya terlalu berat, laptopnya atau HPnya user hang.
20:17Nah, itu berarti salah satu hal negatif yang perlu diantisipasi ya.
20:23Iya mungkin ada fallbacknya
20:26Oh kalau bisa dicek dulu
20:28Oh ini CPU-nya kurang mumpuni
20:30Misalkan ya mau gak mau harus pakai server side lagi
20:33Oke service
20:34Ada tuh
20:35Ada videonya di IO yang Bahas soal itu Yang videonya Kenji dan Maud Nah cari sendirilah nanti pokoknya konsepnya
20:49emang konsepnya emang seperti itu jadi cuma masalahnya sih kalau itu karena demo lebih
20:55simpel ya jadi cuma apa ngecek kalau supported pakai on device di browser pakai yang on device
21:03Kalau pakai browser lain bisa dibuka dari bukan Chrome
21:06Karena itu konteksnya
21:08Buat built-in AI yang di Chrome sih agak lain
21:12Tapi maksudnya bisa diterapkan juga
21:13Kalau misalnya nggak support
21:14Ya udah nge-call service kayak biasa
21:17Kayak yang sebelumnya
21:18Betul
21:20Jadi di sini kita bisa memanfaatkan
21:22Gema 2 billion parameters ya
21:25Bisa di-download
21:26Tersedia di Kaggle
21:28Kemudian
21:29Dari sisi
21:31ini dari sisi
21:33browsernya ya, chrome ya
21:36ada menyediakan interface API
21:38dan itu
21:40menariknya bisa dipakai bukan cuma
21:42buat Jema, bisa dipakai buat itu
21:43Microsoft V2
21:46Falcon
21:47Falcon RW1B
21:50stable LM3B
21:51yang baru supported
21:54baru supported itu baru ini
21:55tapi bisa dikonverti
21:58kalau ada model yang lain
21:59Kalau ngerti cara convertnya, konon bisa di convert juga model lain.
22:04Cuma masalahnya ini bukan ketahuan yang umum buat webdev.
22:10Ini bukan karena webdev ya.
22:14Pake python.
22:16Media pipe.
22:19Tapi ujung-ujungnya apa?
22:20Kalau nggak salah dia bisa convertnya meskipun mau convert.
22:24Yang saya nggak tahu ya mau coba lagi.
22:25Kenapa bisa atau tidaknya.
22:26bisa nge-convertnya pakai TFJS bisa nggak sih gitu nggak tahu ya
22:33ada nggak?
22:35di videonya itu diterangin sih apa nge-convertnya gimana cuma nggak masuk karena nggak paham
22:43setahu saya dia bakal di-convert jadi TF Lite sih sebenarnya ujung-ujungnya
22:47oh gitu?
22:48iya TF Lite ini kan
22:49turun-turun
22:50iya semua model yang bisa di-convert jadi TF Lite itu ya untuk ujung-ujungnya
22:55Karena belakangnya itu jadi TensorFlow.js tetep.
22:59Di belakangnya itu TensorFlow.js yang bisa nge-load TF Lite.
23:04TensorFlow.js gak bisa nge-load model-model yang keras. Keras model itu gak bisa langsung harus di convert.
23:10Itu yang setahu saya mungkin saya salah.
23:16Kayaknya iya. Kayaknya benar.
23:19Iya kan?
23:21Betul-betul.
23:22Dan saya pernah convert itu pakai python, gak mesti harus pakai media pipe ya.
23:28Saya pernah convert itu pakai tensorflow yang di python untuk convert itu.
23:35Cuma ini sedikit, bukan sedikit, totally mungkin sudah berbeda banget sama pengetahuan saya 3 tahun yang lalu untuk convert-convert model ini.
23:45Nah kalau misalnya, kalau yang contoh simpelnya, ada demo nya tuh, yang dari talk itu dan dari artikel itu kan tadi ada video yang contohnya.
23:58Ada demo nya, coba deh buka.
24:02Ada demo nya? Yang mana? Yang cleanshot?
24:07LLM Inference, yang paling bawah.
24:10Oh oke inference tuh apa sih sebenarnya artinya?
24:14Menebak
24:17Nah ini kodenya
24:20Belum tau?
24:22Gatau
24:23Ya apa itu yang di demoin di talknya Jason Mize sama Nali tadi
24:31Maksudnya mereka bilang inference tapi gak ngejelasin in detail inference itu apa
24:36sebentar barusan saya mencoba si ini kita pakai tools apa pakai tools streamyacht kan tadi saya coba backgroundnya di blur sama touch up
24:56experience beberapa saat dia pakai GPU loh berarti si streamyat ini pakai web GPU
25:03kelihatan sekarang GPU saya turun naik turun ya tadi tadi naik setelah saya matiin turun
25:12lihat aja udah jadi standar praktisi kalau kalau zoom dan yuk pakai kayak gitu ya kemungkinan
25:20stream yard dan lainnya juga semua bakal pakai kayak gitu juga kan Iya oh ini bisa
25:27demo-nya ya bisa ya live demo-nya juga bisa tuh buka link yang dibawahnya di private chat
25:34kalau pengen lihat musik bentuknya kayak gimana Oke kita lihat ya media pipe studio web apps nah
25:47itu yang itu screenshotnya yang tadi ada di artikel eh ioprap up itu kan ada screenshot
25:53yang ini yang ini yang di atas ini yang ini kan atasnya Aha Iya nah cuma itu kan video doang sekali
26:00enggak bisa dicoba beneran white master ya coba buka detiknya scan beli wajah pencet apa-apa buka
26:07Dev tool karena saya pengen tahu saya pengen tahu modelnya segera apa di di kita harus dulu sendiri
26:16udah punya kan itu model selection choose a model file Iya sengaja biar kelihatan di kanan jadi
26:24jangan di select dulu sekarang boleh selekan ya selek download dulu ya download dulu jadi itu kita literally download dulu
26:33oh iya bukannya udah punya ya belum ya eh punya ya gede loh ini udah pernah pake 2 giga berapa giga nih
26:45atau download model file by preferring with Google or email
26:52emailnya mas pica di safahmi.com
26:59loh oh ada agreement segala ya open access ini ya
27:07ya konsen
27:09duh kesini lagi dia responsibel di AI responsibel AI download S itu download yang bawah bawah
27:24download klik download tadi 1,35 Giga nah terus paling bawah Nah itu dia itu lightlo
27:35kecil ya kan transfer light tuh Iya itu yang kecil ada light 2B 2 billion GPU int4 ada yang
27:497B 7B berapa besar ya int4 tuh artinya apa ya integer kalau saya taunya Q4 itu kan quantize
28:04quantisation quantis 4 bit 4 bit kalau int apa ya oke sambil menunggu lagi download nggak
28:16bisa selesai apa enggak ini kan ada web element of inference API kan itu apa ya Google AI Edge
28:26Hai itu berarti on device nah ini nyebelin sih agak kita kan dulu Edge worker bla bla bla itu
28:34kan maksudnya server yang kayak di-centralize kan yang bisa ada apa replikanya di berbagai tempat
28:41Nah ternyata aparently kalau di dunia AI apapun yang ada kata edge itu maksudnya on device.
28:47Oh, oke.
28:50Nyebelin ya.
28:52Nyebelin nyebelin Apalagi ada browser namanya Edge Dulu setelah saya itu Edge itu di CDN Karena di Edge Computing di CDN kan
29:04Oh, di CDN kan.
29:07Jadi, computing-nya kita itu bisa di Edge, jadi nggak perlu ke load balancer.
29:15Jadi, anggap, imagine something like apa ya, image resize.
29:22Jadi kalau misalnya image kita besar dan kalau di web mau pakenya resize jadi yang kecil karena source set,
29:31itu bisa dilakukan di edge computing. Jadi di url kita yang di edge bisa ngeresize image di edge itu.
29:40Jadi nggak perlu bolak-balik ke server side. Itu bisa.
29:48Terus ada browser namanya edge.
29:50Iya ada berusaha lagi kalau namanya edge sekarang Google AI edge bukan cuma Google sih AI-nya
30:00chat GPT juga apa Microsoft phone-nya lah itu punya produk edge juga lupa nama panjangnya
30:07apa cuma pakai istilah edge jadi bukan computing AI-nya ada di CDN lagi tapi di on device ini
30:18mungkin apa ya pemahaman ekstrimnya gitu maksudnya kayak bego-begoannya nih bentuk CDN yang paling
30:25ekstrim adalah semua device user itu dianggap sebagai resource apa jadi kayak CDN kan kayak
30:33buat nge-serve dan buat mengolah yang disebar jadi banyak nah ini device user semua dianggap
30:40lagi CDN untuk satu orang, CDN untuk dia sendiri.
30:44Ada wasm nya 10 Mega.
30:4810 Mega ini wasm, genera wasm internal.
30:52Terus dia baca dulu 1 Giga itu model ya?
30:56Iya, 900 sekian Mega.
31:00Nah itu tadi yang dokumentasi LLM inference itu, ini adalah
31:04dokumentasinya kode Github yang tadi. Ingat kan tadi
31:08ada GitHub yang sampel demo-nya yang live demo-nya lagi kita jalanin itu jadi tiga tiga hal ini sepaket
31:16yang ini ya ini demo-nya masih belum saya masih kalau nge-load 1GB untuk aplikasi kita sih sakit
31:27ya ini error tapi dimarahin user lah ya error kayaknya salah deh Mas Liza Mas Liza downloadnya
31:34kan yang cus modelnya tar harus dianzip dulu ya Oh iya untar-untar dulu untar Universitas Tarumanegara
31:43Universitas TarGZ
31:45salah ya kita refresh dulu ya oke berarti ini implementasinya ini ya
31:55ya enggak ya ini contohnya mau saya ini kudanya nah yang saya enggak suka itu adalah dia sudah
32:04langsung JS delivery to low enggak ada sendiri ya mau lokal ya mau lokal Iya ada enggak belum
32:15cari sih saya baru kayak bentar tadi eh di dokumentasi lm inference coba deh buka kayaknya
32:22sekilas lihat npm install wait nah zoom in sambil oh oke nice tapi tetap di bawahnya sama nggak sih
32:32kayaknya sekilas kayaknya sama ya to deploy for all npm package for local staging kenapa kenapa
32:41nggak bisa dipublish karena biar ngeberat nggak tahu kenapa tuh tulisannya soalnya install the
32:48required package for local staging tapi bawahnya to deploy to the server suruh pakai yang JS deliver
32:54tadi itu kenapanya nanti nanti kita tanya selain coba sendiri kalau kenapa kan kita kedua tanya ya
33:08orangnya kalau kita nggak segera setelah selesai apa-apa ini belum jalan apa-apa udah muncul
33:19macem-macem tuh udah jalan tuh jepion model batidak detik GPU tuh jauh konsol-konsol konsol
33:29ya banyak banget analitiknya ya iyalah grafis tersebut running terus kemudian
33:37dia detik GPU fastening no window grade apalagi tuh eh udah bisa tuh coba who are you ada ininya
33:51enggak ada ente-ente langsung kita button Oh ini teks area Oh bukannya Oke I am our
34:01sandwich model beragak coba what is the meaning of life who is Ivan Kristianto nggak bisa cari
34:08online like dia Oh ya nggak bisa ya lupa nanti saya game-nya waktu itu akan ayam aneh belum
34:16satu gigi satu gigi minta macem-macem anebel to profile what can you do
34:27enggak bisa semua tapi kenceng banget ya Maksudnya beda ya experience ya ya lokal
34:38pakai-pakai Mas Lisa pakai-pakai pakai-pakai Mac atau pakai apa nih Windows pakai Windows
34:48Windows Oh pas manager bisa kelihatan GPU ini enggak sih GPU bisa-bisa bisa Oh tapi harus share
34:57screen jadinya bukan nggak bisa share Windows doang Oh ya pengen tahu bisa kelihatan enggak
35:02dia ya ya ya ya nanti coba kita kasih pertanyaan yang susah share screen yang ini ya tuh udah
35:12kan Eh belum nih udah belum ini udah oke ada GPU-nya enggak GPU ada-ada bentar ini diatur
35:22GPU nya ada disini kalau nggak salah
35:27Nah ini GPU
35:30Nah itu juga udah spike kan
35:34Tadinya nggak ngapa-ngapain
35:36Naik banget pas loading awal ya
35:40Coba tanya lagi
35:42Cukup cukup
35:45Apa yang susah
35:49kalau subjektif
35:52which one come first
35:55chicken or egg
35:55chicken or egg
35:57itu naik tuh
36:06susah
36:09naik tuh ada spike kan
36:12yang ini
36:13apa ya explain the story of javascript
36:16dia gak pernah bisa jawab apa
36:18about JavaScript programming language-language
36:29weh ini bisa nah itu GPU nya tuh bergerak bergerak bergerak bergerak bergerak bergerak bergerak bergerak
36:39berarti betul dia udah pakai GPU ya kan kalau begitu prosesnya selesai GPU nya turun
36:51turunnya ada itunya deh coba Scroll ke atas Scroll Scroll ke atas atas nah klik di choose a model file
37:03Hai selektornya nah dia indikator kok dia jalan dimana webgpu tuh udah diindikator jalan di web GPU dan betul udah di cross kita minggu lalu minta resep apa sih yang dia nggak bisa habis itu kita minta resep pancake dia bisa Iya resep pizza minggu lalu Oh gaduh Oh
37:28resepi for nggak bisa Indonesia minta resepnya resepi-recipe recipe recipe recipe recipe for
37:42gado-gado Indonesia food called gado-gado ini ya Iya enak sekarang minta resep pancake pizza pizza
37:58anebel nggak bisa juga tuh semua resepnya nggak bisa kalau ini kayaknya ayam anebel to provide
38:07information description Oh dia enggak enggak dapat konteks ini gitu maksudnya dia nggak ngerti bahwa
38:12minta resep gitu yang nggak bisa ayo I'm not able to access external information or engage in
38:19culinary activities dia enggak punya kuliner data-data kuliner tes sepi for pancake coba
38:27bisa tuh pancake bisa ini kayaknya pancake to build in the training model semua LLM apa ya
38:35tako bisa-bisa mungkin harus pakai give me a recipe for itu kayaknya nggak bisa
38:46what about pizza Oh sebelumnya Iya nggak konteks bisa-bisa cuma dia nggak ngerti
38:54itu pizza pizza kan Eropa ya kalau Asia apa ya selain gaduh-gaduh noodles chicken noodles ramen
39:11ramen ramen ramen ramen ramen noodles bisa bisa coba Mas Riza Mas Riza tulis I like indomie
39:26adilah ice cream originated from West Africa training data macam apa ini mas
39:40tulis alo my name is Riza and I like whatever my name is Riza and I like
39:51oke oke sekarang berikan nih was afrika what is my name nggak bisa-bisa satuannya
40:04berarti mungkin chatnya ini kalau kita lihat di solskode yang enggak embed
40:13misalnya mau bikin chat interface yang kayak data ini di-share kodenya di-share
40:28Oke ini saya coba saya coba modif-modif sedikit bisa enggak dikasih history bisa
40:37nanti kalau kita harus kita harus kalau gitu coba balik ke ini dong balik ke kodenya kodenya ada
40:52ini ini teks konteks Hai partial result teks konteks output partialisirnya makasih bukan-bukan
41:04submit loading the model bentar turun dikit ke bawah saat ini mana saat dia submit-submit saya
41:18Cuma mau lihat Tabmit Generate response Input value ya input LLM inference itu apa ini ya oh dari dia
41:32nggak bisa kita lihat ya
41:36kita masukin promptnya dimana sih? belum
41:39ini di form
41:42oh create prompt option
41:47dia output oh generate response metode-nya apa metode-nya yang diimport dari dari
41:58JS Deliver ini ini tugas kita semua untuk itu ya untuk explore lebih lanjut ya intinya adalah
42:09ini menggunakan LLM inference API dari Google AI Edge gitu ya buka ini ada enggak yang ditunya
42:19coba lihat npm-nya dong ke npm.js MediaPipe itu ada contoh lain nggak sih yang disediain
42:28maksudnya info-info ada
42:40ini ya
42:41experimental
42:43oke
42:46berarti file set resolver dulu
42:52wasm
42:54terus modelnya
42:55ya cuma begini doang
42:58Iya sama kayak yang iya sama kayak di dokumentasi tadi sih lln-inference itu
43:05itu nah kan coba klik di kanan prepare data
43:11serasa-serasa ini enggak sih sesingkat itu early early bait yang diburu hanya untuk IO Extended
43:21pasti tapi ini udah lengkap loh udah lumayan banyak loh Iya lengkap tapi
43:28yang atas itu bukan buat web ini doang ya ini doang ya
43:35tuh ini doang itu juga hanya bagian yang web loh yang IELTS kan mungkin beda lagi
43:43kayak gitu juga tapi pakai bahasanya karena TF Lite itu bisa jalan juga di Android
43:55iya bisa native model paling ya persis kayak gini cuma maksudnya beda bahasa aja
44:00oke oke anyway cukup kali ya kita bahas tentang ini ya
44:06cuma penasarannya tadi kan kita masih penasaran apa tuh LLM inference itu
44:12itu apa sih ada penjelasannya atau enggak ya minimal sekarang kita udah coba tanya gimana
44:23apa itu LLM?
44:25pasti dia gak ngerti
44:29inference dalam konteks LLM
44:35oh bisa loh, dia bisa jelasin
44:41gak mau
44:43explain
44:45explain seperti M5
44:51m-like m5 sejarah favorit of favorit nggak perlu ngapain be-share not be learning lm yet
45:03Yes you learn alfabet panjang juga dia eh eh bisa tuh enggak kayaknya enggak ya enggak kayak
45:13tetap sama jelas anak lima tahun ya jadi mudah menyingkul information and pattern for massive
45:20set of text and code. Penjelasan buat orang yang cukup umur. Predik, generate and answer.
45:26Itu dia sebenarnya jawabannya predik generate and answer Ya tapi at least dia bisa jelasin ya dia paham ya at least bisa jelasin nah ini bisa jadi topik untuk AI Extended
45:39kita bisa explore ya
45:41AI Extended lagi
45:42I O Extended
45:44sampai salah nama
45:46sampai salah kebanyakan AI
45:49ya jadi udah dapet ya
45:51saya sudah dapet topik
45:52nah
45:54jadi apa namanya ini
45:57Bisa membuka opportunity
46:02Kenapa? Karena satu bisa jalan di lokal masing-masing
46:07Walaupun memberatkan masing-masing user
46:09Ya tadi dengan segala kelebihan dan kurangan kan
46:12Betul
46:13Dengan memungkinkan untuk bikin seperti ini
46:20Kita bisa bikin misalkan apa ya
46:21Extension tapi pakai LLM
46:25nggak perlu dari ke server gitu kan tapi kalau misalnya saya 2GB 1GB gitu saya masih enggak
46:34puas loh ada 11,2 giga untuk user itu Iya apa kesnya yang yang bisa justify minta user untuk
46:46download 1,2 giga untuk jalanin aplikasi-aplikasi kita betul-betul kemarin itu kalau nggak salah
46:52sekarang use case nya
46:54kalau 1 giga itu
46:58kalau downloadnya
47:03sih gak masalah, storage nya
47:04yang mungkin sedikit
47:06berat, kalau download
47:081 giga mungkin kalau untuk
47:10traffic kayaknya udah normal ya, zaman sekarang
47:121 giga, 2 giga itu kayaknya udah
47:14di mobile loh mas, belum tentu
47:17loh, gak sih, kalau untuk
47:18mobile, sakit juga
47:21kalau PWA mungkin
47:22jadi sudah install sebelum sebelum di sebelum di jalani belum dipakai ya sebelum digunakan
47:31user udah punya ekspektasi bahwa itu akan behave seperti aplikasi kalau misalnya gini kayak anggap
47:39aja pakai senja atau pakai jemaah pakai multimodal daya yang bisa ah gemini yang vision pro vision
47:49itu yang bisa untuk make up atau untuk augmented augmented apa namanya augmented reality reality
48:01pakai pakai ngecoba ngedress something jadi waktu kita buka aplikasinya ada loadingnya ada ada
48:12palingnya dulu nih tapi selama lo yang model itu worth it gitu make sense make sense ya tapi kalau
48:20berarti ya udah ya udah pakai buat itu itali kalau kayaknya sampelnya chat ya ini kan sampelnya chat
48:29ya Mau enggak sih ada chat agent 1,2 Giga loh kan itu jadi sebelum kita load kita konsen dulu ini
48:39membutuhkan file 1,2 giga untuk download dan storage mau nggak kalau nggak mau ya kembali ke
48:45server gitu paling gitu di awal sama aja kayak kayak loading spinner gitu cookies atau apa
48:55cookies ngomongin enggak ada pertanyaan Ivan mau saya use case aplikasi jenis apa ya berarti jenis
49:01Yang bisa justify, nyuruh-nyuruh download kayak gitu.
49:06Maksudnya oke lah ada pop up gitu, ada dialog.
49:10Ini akan membutuhkan download seukuran kira-kira segini, downloadnya lamanya segini.
49:16Nah apa yang bikin user bilang oke, nggak nge-screenshot dan marah-marah di Twitter misalnya.
49:25Berarti harus ada use case yang justified.
49:27yang butuh banget yang membutuhkan sekali tanpa harus apa namanya ya dia mau nggak mau suka tidak suka harus download
49:36ya itu tadi sih itu contoh yang contoh yang make sense itu tadi
49:42Misalnya apa buat makeup atau pakaian atau buat itu yang apa di rumah kita terus orang jualan tokonya webstore jualan furniture,
49:52nyoba sofa itu gimana bentuknya kalau ditaruh di ruangan kita yang gitu-gitu sih mungkin orang paham ya.
50:00Kalau buat chat doang sih kelihatannya enggak.
50:02belum lebih tepatnya kalau saya pikir-pikirannya ya jadi lebih tak ke arah model yang lebih spesifik
50:13contohnya yaitu tadi model untuk ngeblur background jadi kalau dia spesifik kan jadi
50:20bukan general model jadi model spesifik itu ini size nya bisa lebih kecil jadi hanya bisa ngeblur
50:29background hanya bisa untuk warna lipstick hanya bisa mendetek mata untuk eyeshadow maybe jadi
50:40lebih make sense kalau yang hanya cuma kayak ratusan Mega sih kalau sampai gimana kalau
50:45spesifik dan multimodel ya kalau cuma teks doang kelihatannya user belum bisa terima ya
50:52Iya benar
50:54Gimana kalau misalkan aplikasi yang
50:56Tadi kan keunggulannya adalah
50:58Privacy kan
51:00Misalkan aplikasi yang membutuhkan
51:02Foto KTP
51:03Kita sambil foto KTP
51:05Iya
51:07Validate dulu di lokal
51:10Untuk client side itu sangat aman kan
51:12Maksudnya KTPnya gak akan dikirim ke server kan
51:14Tapi itu juga
51:16Di sisi yang lain itu juga besar kan
51:18Mungkin besar kan
51:20Mungkin gak sampai 1 giga
51:21kalau untuk ngedetect KTP tapi berapa puluh atau berapa ratus Mega kan harusnya itu
51:29mungkin juga kalau itu OCR kalau privacy kalau concernnya privacy atau mungkin apa ya kayak
51:38tools internal nggak sih kayak Mose apa dashboard atau apalah di perusahaan gitu ya kalau tools
51:44internal ya pasti make sense ya ya kalau tools internal pasti make sense internal tapi Mose kalau
51:49saya perusahaan besar kayak pernah lihat percakapan di Discord orang yang kerja di Ikea itu kan mereka
51:58apa networknya kalau internal kita kan bayangin yang akses tuh 10 orang gitu cuma kalau selevel
52:05Ikea itu kan sebetulnya user mereka ya itu banyak itu sangat banyak bisa diakses ratusan user kan
52:14cuma internal mereka
52:17nah kalau kayak gitu kan
52:19privacy make sense banget ya
52:21ya
52:22oke
52:24mungkin pembahasan tentang
52:27LLM di lokal
52:29kita
52:30tutup dulu, kita masuk ke
52:33bagian berikutnya yang tentang
52:35visual block ya
52:36jadi nantikan
52:38apa
52:40eksplorasi kita, salah satu dari kita
52:43atau salah dua dari kita di
52:45IO Extended ya, siapa tahu
52:47atau salah lima
52:49lima-limanya
52:50kita tahu tentang ini semua
52:53nah ini
52:55maksudnya Bung sih masih berhubungan
52:58cuma apa ya, dari perspektif
53:00yang beda, ada UI-nya
53:02ini visual block itu
53:04low code ya
53:06low code atau malah bisa dibilang no code
53:08cara no code untuk
53:09prototyping itu bermacam-macam
53:12macam jenis model yang ada yang tadi sempat dibahas Ivan sedikit model yang spesifik nah
53:18ini contoh-contohnya ini juga client-side jalannya di device kita sendiri yang bikin timnya ya timnya
53:27Google machine learning MLAI tapi kolaborasi dengan Hugging Face dan menariknya nah disini
53:39mungkin pas ya kita bahas tentang yang membuat ini memungkinkan terjadi salah satunya adalah transformer JS ini transformer JS ini awalnya adalah library Python kemudian dikonversi menjadi JavaScript
54:02Ada hubungannya sama itu nggak sih, Transformer film?
54:07Film nggak ada, sayang.
54:09Jadi, loh kok ini, GitHub-nya mana?
54:13disini itu senova itu loh senova ini senova transformers.js github.com senova slash senova
54:27slash transformers.js awalnya dia kayak apa ya ya developer lah ya developer terus iseng-iseng
54:41membuat tools untuk konversi dari python awalnya originali dari python namanya transformers juga
54:49jadi transformer GS gitu ya dia bikin semacam SDK nya gitu ya dia bisa pake javascript gitu
54:57abstraction layer di atas tensorflow kalau nggak salah jadi ini sebenarnya
55:07machine learning
55:08tools
55:11machine learning library sebenarnya
55:12jadi kita bisa melakukan
55:15macam-macam, bisa transforming
55:17bisa buat
55:18inference, bisa buat
55:20contohnya disini sentiment analysis
55:22bisa
55:23similarity research
55:26similarity search
55:28dan lain-lain
55:30dia pakai backendnya
55:34onyx runtime, jadi
55:36ini kayak standar gitu ya
55:38standar kesepakatan antara
55:39ada TensorFlow, ada
55:42Pythos, ada macam-macam ya
55:43jadi mereka jadi satu runtime
55:46supaya bisa saling berkomunikasi
55:48nah ini
55:49kemudian dia
55:52di hire sama Hugging Face
55:54sekarang dia sudah menjadi karyawan
55:56Hugging Face
55:57manusia juga bisa diakusisi ya
56:00banyak sekali
56:03contoh-contoh
56:04contoh-contoh tapi ya ini lagi apa Oh enggak enggak ini enggak pakai tapi ini bisa pakai
56:10npm bisa pakai apa namanya jstliver atau CDN ya ini ada contohnya nih contohnya misalkan kita
56:19mau pakai space recognition ada nih demonya realtime sketch recognition ada demonya dan
56:28ini ya browser ya Oh jadi tinggal pakai sebenarnya tinggal pakai cuma dia loading dulu tuh kan dia
56:35download dulu download tuh baru enggak tinggal pakai juga draw itu karena tadi kayak dibahas
56:45Ivan itu kan satu modelnya spesifik kita nggak bisa posisi resep kalau ini gambar
56:50ada mobil beach pantai pantai dimananya gambar ini pillow house cooler cooler cooler sih kasih
57:11ini house octagon ya betul benar table ini ada pintu komentar hospital rumah sakit apa
57:27sekecil itu oke ada namanya contoh menggunakan ringan in browser object detection Vanilla
57:36JavaScript tuh banyak ini nya demo-demonya tuh upload image ya jadi ini yang memungkinkan
57:44terjadinya yang tadi itu salah satunya node.js juga bisa jalan di server bisa jalan di client
57:51buat elektron buat browser extension macem ya jadi ini salah satu yang membuat kenapa Hai masih masih belum ngerti transform ini berarti library untuk mah apa yang sebenarnya macem
58:08ini ini NLP aja kodenya salah satu computer vision audio multimodal kalau yang eh kalau
58:21saya pernah pakai jadi kalau pakai apa kalau kita mau bikin rag dari trivel and generation itu kan
58:29dari dokumen kita mau cari yang ada di dokumen itu pakai transformer ini jadi caranya pipeline
58:37terus pipeline di sini kita bisa definisikan pipeline yang mau kita pakai fitur apa similarity
58:44search gitu atau sentiment analysis atau apa gitu cuma itu fiturnya udah ada udah specified
58:50maksudnya dia punya daftar apa aja yang bisa dipakai
58:53kita gak bisa nge-custom
58:54ada dokumentasinya
58:55dan dia udah nyediain modelnya juga
58:59dan modelnya bisa pakai yang tadi-tadi
59:00ini dokumentasi ya kita lihat ya
59:02misalkan
59:06pipelinesnya
59:08ya
59:09pipeline-nya
59:11text classification
59:13token classification, question answer
59:16text to text generation summarization ada semua Oh ada daftar model saya juga itu Iya daftar modelnya
59:29oke ini ada beberapa model yang dipakai punya dia juga ya dari birth dari mana gitu ini kan
59:40di sini kan Eh mana tadi yang transformers transformer ini
59:47ini jadi dia nyediain sekian model yang available betul ini versi low levelnya
1:00:00dari LLM yang kalau kita inference gitu ya ini versi low levelnya dibawahnya lagi
1:00:06nah ini yang harus diulik sama kita nih
1:00:10disbring star hubungannya sama visual blocks ini Oh visual box ini bikinnya pakai kebutuhan
1:00:27Kan tadi apa Transformers JS yang agak low level ya, mid level lah. Nah visual box ini yang beneran yang high level, yang UI yang wistful lah.
1:00:39Bisa langsung ekstrak pakai, tadi kan ada extraction ya, contohnya itu seminary research. Bisa kalau bisa kita ada data, bisa nge-extract, sorry data itu lebih tepatnya text ya, kalimat lah ya kalimat.
1:00:55Dia bisa nge-extract kalimat itu pakai transformer ini.
1:01:00Berarti dia bisa nge-pipeline dari modelnya.
1:01:03Jadi nge-pipeline fitur extraction yang dia pakai itu menggunakan model
1:01:10yang untuk, berarti si transformer ini sendiri menjalankan model itu
1:01:16untuk melakukan extraction data tadi itu.
1:01:19Comment-nya itu adalah extraction tapi menggunakan model.
1:01:22Ngerti nggak sih?
1:01:23Saya lagi berpikir.
1:01:25ya kayaknya perintahnya masing-masing sesuai model yang kita masukin sebagai argumen itu kan
1:01:34dan model-model yang kita pakai itu bisa menjalankan function atau perintah itu
1:01:43karena tadi sudah menggunakan runtime yang sama saat nge-build model itu
1:01:48kayak gitu kali ya
1:01:50Karena misalnya meskipun model dibuild pakai PyTorch atau dibuild pakai TensorFlow
1:01:58atau dibuild salah satu lagi apa pakai apa tadi tiga kan PyTorch tensorflow sama ee ada tadi di di tensorflow
1:02:12ee dokumentasinya
1:02:14JSnya
1:02:16bukan bukan coba ke TF
1:02:18bukan
1:02:20transformer
1:02:22transformer JSnya yang di
1:02:24di github
1:02:26itu atau Jack model dan transfer atau jx jadi reti gak kan ya Nah understand Oke ini contohnya
1:02:44ya jadi kita mau bikin konversi image jadi bentuknya kayak kartun image inputnya apa
1:02:54prosesornya apa
1:02:57terus model runningnya apa
1:03:00tambahin
1:03:02normalizer
1:03:05crop dan akhirnya jadi
1:03:07cartoonized output
1:03:08yang mau
1:03:12diganti apa
1:03:13coba klik di thumbnail yang atas
1:03:18yang kiri atas
1:03:19coba klik
1:03:23nah selek loh nggak otomatis otomatis berubah butuh butuh waktu karena Oh kenapa dia di-release
1:03:33karena sih karena si TF lightnya itu hanya bisa nge-accept image yang 512 kali 512 iya tapi ini
1:03:42512 kali 512 kan mungkin sisanya ikan posisi sisanya dengan putih Iya oke oke ini gimana
1:03:56cara ininya ya cara bacanya nggak ngerti soalnya ini image input ya udah tahu ya
1:04:03terus dihubungin ke itu masing-masing kotak namanya no
1:04:09terus ini riset and normalize input image jadi diresize dulu ke 512 kali 512 ya hasil akhirnya
1:04:24itu ya inputnya itu image outputnya sudah tensor which is floating number ya ya ya ya oke terus
1:04:36dinormalize akhirnya jadi tensor terus modelnya running yang ini storage Google API cartoon gun
1:04:44ini model ya modelnya ya tapi beliau ya kartun Gan terus habis itu masuk ke tensor pertama untuk
1:04:55normalize dulu dari 0 ke 255 nggak tahu nih normalis nih ngapain ada dokumentasinya enggak
1:05:05sih itu di kanan atas itu remap value range of input tensor Jadi kalau ada tensor yang diatas
1:05:11255 dia bikin supaya dari 0-255 kayaknya gitu ya mungkin ya tolong dikoreksi kalau salah kemudian
1:05:19di crop dan di resize Oh ini udah jadi kartun di sini habis itu di normalize lagi kalau ada
1:05:30angka-angka yang mungkin di luar dari 0 dan 255 gitu habis itu bisa lagi
1:05:36supaya sama dan di-upload supaya jadi dari ya image-nya dengan kan di sini ada get image
1:05:47size jadi dia cari tahu image size ini berapa kemudian di-research kembali ke
1:05:52with dan hate yang sesuai sama image size originalnya gitu ya jadi pertama dia image
1:05:59Terubah jadi tensor, setelah sudah dijalankan pakai model, dari tensor diubah lagi menjadi image, jadi output.
1:06:08Iya, karena kan tensornya 512x512 kan?
1:06:12Iya.
1:06:13Jadi harus butuh research lagi supaya ukuran.
1:06:16ukurannya sama sama yang originalnya ukuran dan formatnya balik jadi image lagi ya berarti yang
1:06:23terakhir yang paling terakhir dari paling terakhir itu tenser jadi image high preview hilang ya
1:06:31ini kalau untuk ada di contohnya kan itu ya apa remove background kan mana nggak ada di sini ya
1:06:44yaitu banyak itu tutup siluet style foto generator
1:06:53itu malah remove program ini jalan di browser Iya iya jalan di browser cepet
1:07:07juga ya bukan malah remove program kebalik ya kebalik ya Emang konsepnya gitu tapi kan
1:07:14berarti dia bisa mengetik mana yang program mana yang kebalik
1:07:17benar-benar
1:07:19ini menarik di
1:07:22ulik ya
1:07:23berarti ini adalah
1:07:28versi visualnya dari
1:07:30transformer JS ya, kalau transformer JS
1:07:32kita harus coding, kalau ini
1:07:34kita drag and drop
1:07:36katanya dimaksudkan
1:07:38ini buat prototyping
1:07:40jadi mesti kita nunjukkan
1:07:42kita ingin nunjukkan
1:07:43kita mau nunjukin cara kerjanya kayak gini inputnya seperti apa outputnya seperti apa
1:07:50kita enggak harus mau ini ada tapi bisa pakai visual block background removal ada
1:07:56running running dulu ya background from an image modelnya pakai modnet modnet device-nya web GPU
1:08:09tuh jadi bagus dari image-image jadi background langsung masuk background removal balik lagi ke
1:08:22image viewer sama image mister ini yang sisanya ya yang backgroundnya ya ya sandainya mau di
1:08:32di diri di Hai datanglah rambut-rambutnya tapi ya ke ekstrak ya bagus ya detail nah tapi si
1:08:45background mobile ini sih modelnya itu enggak pakai ini loh enggak pakai sensor lo dia langsung input
1:08:51image Iya ini model modnet ini atau kita mau ganti bisa kali ya terus running lagi dia bisa
1:09:00bria.ai bria.ai
1:09:04Wah kita harus kembali ke sini teman-teman bisa cek sendiri ya kita balik lagi ya silakan kalau
1:09:19main-main silakan ada banyak nih contoh-contohnya teks classification ada translation ada combine
1:09:26sama server-side juga oh ya Eka jadi AI Eka jadi Eka jadi jadi jadi freeze oke sudah sudah aman
1:09:42Use JavaScript, nah ini topik ketiga ya dari pembicaraan itu ya.
1:09:47Use JavaScript for Web AI at scale with Chrome.
1:09:52Jadi sebelumnya kita sudah menggunakan GEMA, modelnya loaded and run within the web page itself.
1:09:57Chrome is working on built-in on device AI where you could access model with standardized task-specific JavaScript API.
1:10:06dan itu bukan saja, Chrome juga mengupdate web GPU support untuk 16 bit floating point values
1:10:13WebAssembly memiliki proposal baru memori 64 untuk support 64 bit memory index yang akan membenarkan Anda untuk melihat model AI yang AI model than before Jadi modelnya bisa lebih besar lagi Nah intinya kan kita ada 3 hal kan
1:10:33Sebelum Mas Jason menutup, kayaknya saya ingat ini.
1:10:36WebAssembly ada proposal untuk menaikkan dia bisa 64-bit,
1:10:44supaya bisa men-load model 4GB.
1:10:47Kalau sekarang belum bisa.
1:10:49besar-besar tadi satu giga aja kita mikir ya ini mau dibikin biar bisa empat tapi
1:10:58mau secara infrastruktur ya nggak tahu kali disiapin dulu ya bukan infrasi
1:11:03mau saya secara cara kerja ada capability dulu jadi ini menarik sini ada tiga saya
1:11:13GDI web performance melihat 4GB download bagi user itu merana gitu apalagi betul teman mungkin
1:11:21kembali lagi ini konsepnya beda untuk researcher user case nya itu mau ngeresearch atau mau
1:11:29something internal mungkin main-main aja tadi ya kalau 4GB nah ini masih ke komunikasi ke user
1:11:36sih sebenarnya itu tadi kalau usernya
1:11:39udah tahu itu emang
1:11:40ada apalah background remover atau
1:11:43apa make up tester
1:11:44atau furniture
1:11:45furniture apa AR gitu
1:11:48ya kan ada ekspektasi bahwa itu
1:11:50bakal berat jadi lebih ke
1:11:52saya combine dengan UX juga sih
1:11:55dan ini kayaknya masih
1:11:58eksperimen jadi kalau teman-teman mau testing
1:12:00ya bisa kesini langsung
1:12:03cobain running di google
1:12:04collab atau
1:12:06Ini beda
1:12:08Beda kasus
1:12:09Oh beda ya
1:12:11Iya itu udah beda
1:12:13Beda-beda
1:12:15Bukannya dibahas tiga ya
1:12:18Empat
1:12:19Ya berarti empat
1:12:21Jadi
1:12:22Ini kan perkaranya
1:12:26Ada web GPU sama web assemblynya
1:12:28Di upgrade lah
1:12:29Intinya di upgrade biar lebih capable
1:12:32Capabilitynya ditingkatkan
1:12:34Karena ya itu
1:12:35Kita udah masuk ke era on device
1:12:38Apapun on device ya
1:12:39Tadi kita juga udah nyobain sendiri kan
1:12:42Tapi ada satu hal lagi yang menarik
1:12:44Coba deh buka di private chat
1:12:46Link yang paling bawah
1:12:48Itu tadi
1:12:50Jadi kan selama ini
1:12:52Kita mikir kalau on device AI
1:12:54Berarti harus download dulu
1:12:56Kayak yang tadi kan
1:12:57Nah sekarang Chrome rencananya
1:12:59Dia bakal include
1:13:01Di Chrome-nya
1:13:04Wow ini huge efeknya nah cuma itunya pasnya kayak nggak semua bisa jadi itu spesifik banget
1:13:22kalau yang di demo yang di IO itu translation yang paling use case yang paling utama dan itu
1:13:28lumayan universal kan ya itu translation terus apa ya ada code assistant ada apa explaining ada
1:13:36summarizer gitu lah pokoknya misalnya use case nya yang dicompoin sih kalau kita baca itu bisa
1:13:41minta summarize cistek atau explain cuma kalau yang paling banyak di demo-in dan kelihatannya
1:13:47bakal dikurs pertama sih translate oke cuma ini browser installer size bisa gede banget dong
1:13:55kita bisa review Scroll ke bawah ini ya ini jadi apa ya jadi yang Ivan khawatirkan bisa jadi ini
1:14:13terjawab disini dengan kita download Google Chrome yang sudah ada will innya mungkin enggak jadi
1:14:20atau tidak jadi 1GB, mungkin setengahnya atau seperempatnya yang perlu kita download
1:14:25seperti tadi kan perlu download 1GB mungkin sebagian sudah ada di Google Chrome mungkin 500MB sisanya 500 mega yang kita download mungkin ya jadi akan dan lagi kita tetap harus spesifik
1:14:39mau ngapain kan, maksudnya aplikasi kita
1:14:41yang butuh on device AI
1:14:43itu sebenarnya buat apa
1:14:44kan kalau
1:14:46kalau yang chat
1:14:49segala bisa itu kan yaudah lah
1:14:51pakai service aja kalau cuma chat text
1:14:53nah coba, translate-nya
1:14:55bisa di handle di sini
1:14:56dan itu ada demonya lupa video yang mana cari sendiri punya demonya adalah komban nge-review
1:15:06misalnya review jadi sentimen analisis misalnya pakai pakai model eksternal tapi untuk apa ya
1:15:13untuk toxicity detection misalnya bisa pakai yang bawaan dikro ini pakai yang apa on device
1:15:23help me write atau translation API bukannya
1:15:26demo ini lagi bahas demo yang I.O
1:15:31bisa juga jadi salah satu aplikasi pakai extension kita bisa gunakan untuk parental control mungkin ya
1:15:43jadi anak kita bisa dimonitori pakai AI
1:15:48jadi data itu tidak perlu dikirimkan kemana-mana
1:15:51jadi kalau dia buka situs-situs yang tidak save apapun itu bisa di automatic blog
1:16:02hoax and scam detection misalnya ada link-link yang dicurigakan gitu cuma suka disamarin
1:16:11misalnya apa ya eh orang-orang yang awam atau detik.com saya cuma detik.com ya nggak tahu
1:16:23apapunnya pola-pola yang scam atau bahaya bisa diblokir pakai extension nah contohnya kan writing
1:16:30assistance proofreading grammar correction refreshing itu itu kan use case yang umum ya
1:16:37Jadi, ekspektasinya adalah kalau use case yang umum nanti kita nggak usah.
1:16:42Bayangin dong kalau ada berapa ada ratusan atau ribuan atau jutaan website,
1:16:46masing-masing semua nyuruh user buat ngedownload model, pusing juga kan.
1:16:51Jadi, kalau use case yang umum, ya pakai ini.
1:16:55Nah, ini strategi yang menarik juga ya dari timnya Google Chrome.
1:17:02Karena sebelumnya kan sudah mulai ada browser-browser yang menambahkan AI.
1:17:07tapi kayaknya itu server site ya
1:17:09server site, dikirim kalau ini
1:17:11beneran ini browsernya
1:17:12misalkan ini Brave, Brave itu kan
1:17:15Chromium based juga kan ya
1:17:16nah dia punya Leo namanya kan
1:17:19Leo AI ini, buat asisten
1:17:21Art juga
1:17:22Art juga punya
1:17:23iya Art juga punya
1:17:26sama
1:17:27semua pada punya
1:17:29semua pada punya
1:17:31server
1:17:33server site kan
1:17:35Jadi datanya tetap dikirimin ke servernya mereka kan
1:17:39Kalau kita mau summarize
1:17:40Mau apa gitu kan
1:17:42Ini maksudnya apa
1:17:42Mau catatan dan lain-lain kan
1:17:45ARK juga ada
1:17:46ARK namanya adalah MAX ya
1:17:48M-A-X
1:17:50Nah ini
1:17:53Power up by browsing with API
1:17:57Wah ada suaranya
1:18:01Ini ketutup lagi mute-nya
1:18:05memang nggak boleh ini mute
1:18:07kita mute saja
1:18:09mute side, dah bisa kan
1:18:12nah ini misalkan kita taruh di apa, to do gitu semacam gitu ya
1:18:18jadi, tapi ini kembali lagi ini server side, dia pakai chat GPT
1:18:24pakai OpenAI berarti ya
1:18:26iya, OpenAI
1:18:28OpenAI, jadi ini adalah salah satu
1:18:32kalau offline nggak bisa ya
1:18:34Kalau misalnya internetnya dimatikan buka browser kalau misalnya browser lain AI nggak bisa jalan Kalau ini bisa Dan kelebihan lainnya terparti developer maksudnya kita siapapun kita yang bikin website
1:18:49kita bisa manfaatin ini kan.
1:18:51Sementara kalau tadi yang punyanya Arc, Brave, dan lain-lain, ya nggak bisa kan.
1:18:56Kita bikin aplikasi web app yang manfaatin itu.
1:19:00Seperti yang tadi sempat kita bahas
1:19:04Kalau yang tadinya mungkin download
1:19:06Apa
1:19:08Asisten AI nya itu
1:19:10900 Mega
1:19:12Mungkin dengan sudah ditambahin
1:19:14Nano ini kita tinggal
1:19:16Nambahin sedikit mungkin gitu
1:19:18Hasil
1:19:19Yang kita tambahin adalah
1:19:22Yang spesifik dengan kebutuhan
1:19:24Aplikasi kita kan
1:19:25Dengan kebutuhan kita ya betul
1:19:27Pengen gak sih suatu saat AI
1:19:29AI model ini sudah kayak docker layer gitu jadi kayak build kayak from
1:19:36gimana ya nano dia sudah ada layarnya terus kita bisa tambahin layer-layernya kita
1:19:43nanti di build jadi docker file
1:19:46iya jadi docker ya jadi kan docker file itu sendiri kan sudah ada layer-layer ya
1:19:52jadi kalau misalnya layer satu ada tidak tinggal tinggal nge-build atau nge-download
1:19:58layer yang belum ada
1:20:00someday
1:20:03kayaknya konsepnya udah ada deh
1:20:06konsepnya udah ada
1:20:07iya
1:20:09model ini ujung-ujungnya layer kan
1:20:12isinya semua
1:20:13layer-layer-layer kan
1:20:15sekarang ada tapi belum bisa di custom
1:20:18ya kan
1:20:19ya kayak si siapa Transformers JS
1:20:22tadi
1:20:22baru bisa di pipeline
1:20:26belum bisa di transfer
1:20:27baru bisa dipipelining
1:20:29jadi dechaining
1:20:31mungkin kalau pakai line chain bisa
1:20:33di chain ya, jadi pipenya dari
1:20:35input, parser
1:20:37segala macam proses
1:20:39sampai output
1:20:41itu bisa di chain, kalau misalnya yang saya
1:20:43maksud itu kan kayak docker
1:20:45docker image, jadi ada
1:20:47layer, layer, layer, layer
1:20:49jadi mungkin layer utamanya
1:20:52di bawah jempol nano
1:20:53terus mungkin diatasnya ada
1:20:55dari, I don't know
1:20:57misral vision vision layer di atas ada layer lipstick detection layer whatever layer bisa
1:21:10ditambah kalau user udah punya yang nggak ngedownload ulang ya misalnya udah ada background
1:21:15remover gitu ya ya keren banget bisa nyata mental aja gitu mungkin udah mikirkan sampai
1:21:24mungkin maybe I don't know ya mungkin terlalu susah kalau banyak yang mau itu kemungkinan walaupun
1:21:34susah pasti suatu saat ada yang bisa bikin deh ya kan kalau cukup banyak orang yang mau pakai dan
1:21:43ada bisnis case nya itu pasti ya bisa lah diputer-puter jadi bisa jadi setiap saat setiap
1:21:49Tapi suatu saat kita itu bisa nge-build our own custom model seperti our own custom docker image
1:21:56yang spesifik untuk kebutuhan kita.
1:21:59Kan kita kalau nge-build docker image kan mungkin basenya dari Debian.
1:22:04Tapi di atas Debian kan ada hal-hal yang kita butuhkan, nginx atau php-fpm.
1:22:10Jadi itu satu docker image.
1:22:12Sedangkan kalau misalnya kayak model AI,
1:22:16biaya dasarnya Gemini Nano atasnya vision vision khusus untuk KTP KTP vision misalnya jadi cukup
1:22:28satu model itu aja bisa dipakai spesifik untuk satu use case saya berharap suatu saat bisa
1:22:34seperti itu suatu saat oke oke kayaknya bakal bakal seperti itu sih karena sekarang pun udah
1:22:42tapi ya itu berdasarkan
1:22:45base nya, jadi misalkan
1:22:47yang base
1:22:48yang jadi
1:22:50base model itu kan sekarang banyak kan pakai lama, lama 1 atau lama 2 ya
1:22:56kemudian mixtral itu basenya lama juga
1:23:01mungkin nanti GMA itu ya, ya tadi di mini
1:23:05itu kan ini transfer learning kan maksudnya ya
1:23:08kalau dulu kan ImageNet tuh
1:23:10ImageNet yang punya segudang general data
1:23:15terus kita transfer learning hanya untuk
1:23:17ngedetect spesifik data
1:23:19misalnya hanya detect muka orang saja
1:23:21itu kan transfer learning
1:23:24ya
1:23:25kayaknya arahnya ke sana sih
1:23:29kalau yang dibaca ya
1:23:30tapi ya
1:23:32nanti gimana
1:23:34oke
1:23:36sepertinya
1:23:38pembahasan kita
1:23:40kita cukupkan sampai disini
1:23:42ada lagi yang mau disampaikan sebelum kita udahan
1:23:44Udah satu setengah jam loh
1:23:46Ngomongin ini doang
1:23:48Masih banyak, besok-besok lagi
1:23:49Tenang, tenang, masih banyak ya
1:23:52Materi Ayo Extended
1:23:53Iya, seru
1:23:56Dan tujuan kita untuk
1:23:58Bikin episode ini adalah
1:24:01Untuk mencari topik Ayo Extended
1:24:03Jadi pantangin aja
1:24:05Ayo Extended di
1:24:06Kota masing-masing
1:24:08Apakah nanti bakal ada
1:24:11Topik-topik yang menarik
1:24:14atau teman-teman pengen bahasnya apa nih?
1:24:16Pengen bahasnya apa?
1:24:19Yang pengen kita bahas terutama dari sisi web ya.
1:24:22Kalau kita ngomongin web doang,
1:24:26update yang minggu lalu ya kita bahas minggu lalu kan ada AI juga sih Tapi sebagian besar udah kita bahas kayak baseline ada macam ya Ada API baru juga Nah kalau yang ini berhubungan dengan AI karena memang si Google IONya memang fokusnya masih ke sana
1:24:48Sampai tahun ini, dua tahun belakangan fokusnya ke sana untuk mengarahkan kita untuk mulik ya, untuk mulik AI.
1:24:58Dan ini sih kayaknya bau-baunya buat on-device AI ini kelihatannya bakal di arah-arahnya bakal di push.
1:25:09Karena salah satunya indikatornya adalah gimmick, bukan gimmick sih cuma penggunaan istilah web AI.
1:25:16Sampai apa sih, di presentasi yang utama yang buat artikel itu tadi ada satu screen yang tulisannya web AI tidak sama dengan berbeda dengan cloud AI.
1:25:27Jadi kayak ada pembedaan antara web AI dan cloud AI.
1:25:32Nah web AI itu istilah yang digunakan untuk fokus ke on device tadi, client side.
1:25:39Nah ini nih.
1:25:40Jadi ya abis itu dia njelasin pro kontra dan lain-lainnya yang tadi udah kita bahas.
1:25:45Terus emang di-encourage kalau kalian bikin sesuatu ngulik pakai on device AI tadi,
1:25:51share dengan hashtag web AI.
1:25:53Nah, ini tuh ngingetin kayak bikin inget dulu PWA kan, Progressive Web App.
1:26:00Itu juga kan maksudnya itu konsep.
1:26:03Maksudnya sedangkan fitur-fiturnya kayak bisa di-install atau misalnya ada loading spinernya,
1:26:08maksudnya apa, secara UX dan performance bagus.
1:26:11Itu kan hal yang mungkin umum mungkin udah ada yang bikin sebelumnya cuma semua itu dirangkum dalam satu konsep PWA yang di Nah kelihatan web AI ini bakal jadi hype yang sama deh
1:26:27Untuk mengarah ke itu tadi, on-device AI, experience-nya ya dengan segala plus-minusnya,
1:26:34ada privacy, ada blablabla, dan mungkin kombinasi dengan hybrid server,
1:26:38cuma kelihatan web AI ini bakal jadi hype.
1:26:41Ramalan.
1:26:42Tapi saya apresiasi loh, saya apresiasi inisiatif Google ini dengan menyebut kata web AI yang lebih general
1:26:52instead of Gemini Web AI atau Gemma Web. Jadi lebih apa namanya, inklusif menurut saya.
1:27:00Lebih generik, jadi nggak, this is not about Google sih sebenarnya.
1:27:05Not only about Google.
1:27:08About Google, tapi bukan dengan cara yang kasar ya,
1:27:12maksudnya dengan cara yang cuma monopoli doang,
1:27:15ya kan pada akhirnya itu tadi,
1:27:18kayak sintaksnya itu kan bisa untuk model dari,
1:27:21nggak harus Gemini kan, bisa dipakai dengan model dari tempat lain,
1:27:26model lain bisa di-convert juga,
1:27:28kan itu secara nggak langsung memperluas penggunanya Google Chrome kan.
1:27:34kalau banyak developer bikin
1:27:37aplikasi yang bagus
1:27:39yang jalannya optimisnya
1:27:41sekarang di Chrome yaudah
1:27:42mereka ikut untung tapi dengan cara yang
1:27:45ya luas lah
1:27:47gak sempit dalam arti
1:27:49promote Gemini doang
1:27:51yes, jangan lupa juga
1:27:53walaupun di client side
1:27:56tapi kita bisa pakai hybrid juga kan
1:27:58bisa kombinasi antara on device sama server side ya jadi bisa dua itu enggak mesti hanya wah kalau jalan di klien doang berat dong gede gitu ya mungkin kita bisa server side nya
1:28:10mungkin tergantung kebutuhan
1:28:11tergantung kebutuhan
1:28:13betul, oke
1:28:15mungkin untuk episode ini
1:28:17sekian dulu, kalau mau ada
1:28:20episode follow up, boleh silahkan
1:28:22teman-teman komen ya
1:28:24di Instagram
1:28:25kalau masih suka tentang AI
1:28:28masih suka tentang AI komen kalau bosan tentang AI komen juga komen suruh bahasa
1:28:35kita bisa ganti iya apaan sih ini AI-AI mulu gitu ya ada yang mungkin ada yang apa ada yang
1:28:45parno gitu bakal tergantikan jadi takut ada pertanyaan klasik banget coba nanti tanya ke
1:28:54apakah aku akan digantikan oleh
1:28:56EI?
1:28:57ya nanti ditanya sendiri
1:28:58silahkan ke sana.in
1:29:01slash ngobrolinweb
1:29:03atau ada pertanyaan-pertanyaan
1:29:05seputar apapun
1:29:07nggak mesti hanya dibahas di episode ini
1:29:10nggak mesti mungkin pertanyaan umum
1:29:11silahkan tanyain aja
1:29:13kita diskusi di sana
1:29:14mungkin untuk malam ini udahan dulu
1:29:16terima kasih banyak buat semuanya yang sudah nonton
1:29:19dan sudah meramaikan
1:29:20sesi malam ini
1:29:22Kita ketemu lagi minggu depan
1:29:25Dengan topik-topik yang berbeda
1:29:27Apakah AI lagi atau enggak
1:29:28Tunggu aja ya
1:29:30Kita lihat
1:29:30Kita juga nggak tahu
1:29:32Nanti kita tanya AI
1:29:34Nanti kita tanya sama AI
1:29:37Selamat malam, selamat istirahat
1:29:40Sampai jumpa minggu depan, bye-bye
1:29:42Bye
Suka episode ini?
Langganan untuk update episode terbaru setiap Selasa malam!
Episode Terkait
21 Mei 2024
Inovasi Web dari Google I/O 2024 - Ngobrolin WEB
Penasaran dengan perkembangan terbaru di dunia web yang diperkenalkan oleh Google pada konferensi tahunan mereka, Google...
16 Apr 2025
Ngobrolin CORS & Browser Policy - Ngobrolin WEB
Yuk mari kita diskusi dan ngobrol ngalor-ngidul tentang dunia web. Agar tetap up-to-date dengan teknologi web terkini. ...
20 Feb 2024
Ngobrolin Interop 2024 - Ngobrolin WEB
Yuk mari kita diskusi dan ngobrol ngalor-ngidul tentang dunia web. Agar tetap up-to-date dengan teknologi web terkini. ...