Using Service Auth for Gitea Access via Git Client + Cloudflare Tunnel

previous, I added a Cloudflare Zero Trust Application Access for my gitea with a one-time password, but when I use a git client to push code, it redirects me to Cloudflare Tunnel with a one-time password So, in this blog, I want to create a Service Auth to ByPass access to Gitea, if I have a special key. Otherwise, it redirects to Cloudflare Tunnel with a one-time password Set up Gitea + Cloudflare Zero Trust Application Access If you have already setup Gitea + Cloudflare Zero Trust Application Access. You can go to step setup Create Service Auth (For Git…

Create Unit Test on Nuxt with vitest

Sample Code for Test – useCommonUtil.ts Here is a step to add unit test in Nuxt Project Setup For Test If you need to configure global settings (e.g., mocking or extending Jest matchers), create a vitest.setup.ts file Create a Test File create a test on the same level as useCommonUtil.ts > useCommonUtil.test.ts Run Tests Sample Run Result Reference

Create a REST API for the Microsoft/BitNet B1.58 model and integrate it with an Open WebUI

I’m currently writing this as a bit of a vent. I typically use Ollama models, but I discovered someone’s post on X (formerly Twitter) about a Microsoft model that supposedly runs well on CPU alone, with even better performance on systems like the M2 chip. Microsoft just a 1-bit LLM with 2B parameters that can run on CPUs like Apple M2. BitNet b1.58 2B4T outperforms fp LLaMA 3.2 1B while using only 0.4GB memory versus 2GB and processes tokens 40% faster. 100% opensource. pic.twitter.com/kTeqTs6PHd — Shubham Saboo (@Saboo_Shubham_) April 18, 2025 And that model is microsoft/BitNet b1.58 2B4T. After seeing…

EAT RAMEN FEST 2025 @ Samyan Mitrtow

อันนี้เหมือนเห็น Feed ในกลุ่ม สมาคมคนชอบกินราเมงแห่งประเทศไทย ว่ามีจัดงานครับ เลยลองมากินดูแบบงงๆ ปกติตามใน TikTok / YouTube มาสะส่วนใหญ่ครับ ตอนมาเรียกว่าโชคดีนิดนึง Clear งานเสร็จก็บ่ายนิดๆ เจอ 507 มาพอดีเลยมาถึงสามย่านมิตรทาวน์ครับ ประมาณบ่าย 2 ก็ถึงแล้ว มาถึงเลือกเลยครับ ร้านไหนคนน้อยวนไปกินร้านนั้นครับ 🍜French Ramen (ร้าน Ishibi 石美) อาหารลูกครึ่งที่แปลกดี การจัดจานสวยงาม และอร่อยน้ำซุปกลมกล่อม หวานนิดๆ ไม่จะออกไปทางเข้มๆ เค็มๆแบบที่เคยกินมา แล้วน้ำซุปทงคตซึ + ทะเลด้วยครับ มีมะเขือเทศด้วย ข้างในมี ชาชู เห็ด หอยเซลล์ และชีส ตอนัดใส่จ่ายมีเอามาเบริ์นไฟก่อนเครื่องเยอะดี และผมชอบตัวนี้ที่สุดด้วย ลองคุยกับเจ้าของร้าน มาไกล ถ้าจบงานนี้ไปต้องไปกินที่หัวหินเลย 💴ราคา 150 บาท 🍜Ajisai Style Sanra Jiangmen (ร้าน Ramen Ajisai at asok) สำหรับผมอันนี้เป็นชามที่สองครับ รสชาติออกไปแนวๆเปรี่ยว ซุปดูสีเข้มๆคล้ายหม่าล่าเลย แต่ไม่ได้เผ็ดขนาดนั้น ซุปหนืดๆฟิลราดหน้า/โกยซิหมี่ เส้นหนาหนืบๆ แต่แปลกนิดนึงมีถั่วงอกด้วย 💴 ราคา 140 บาท น่าจะถูกสุดในงานแล้ว 🍜 Hokkaido Aged Miso Ramen (ร้าน Miso Ramen Chikura bangkok 味噌千蔵バンコク) ร้านนี้ตอนแรกผมจะไปกินข้าวปั๊นหน้าหมูชาชู เค้าทำอยู่ เลยได้มิโซะราเมงแบบดั้งเดิมเค้าบอกมานะ ตอนรอคิวมีเอาผักไปผัด เติมซุปมิโซะลงไป พอเดือดก็เทลงบนเส้น เครื่องมือตัวหมูชาชู เส้นนุ่ม และมีไข่ต้มด้วยนะ ซุปเหลือด้วยนะ น่าเอามากินกับข้าวมากๆ 💴 ราคา 150 บาท 🥩 Grilled Beef…

Jenkins-Git username / password credentials binding 

สำหรับ Blog ถ้าใช้ Jenkins แล้วอยาก Binding Git โดยใช้ username / password อยู่ใน pipeline มีวิธีการตามนี้ครับ ถ้าใช้ตัวอย่าง PowerShell / Shell ผมมี recap ตัวอย่างให้ลองนำไปปรับใช้กันครับ สุดท้ายสำหรับวิธีการนี้ แนะนำให้ใช้กับ Git ที่ยังต่อ username / password อยู่นะครับ ถ้าเป็นตัวใหม่ๆใช้ AccessToken / PAT หรือ การแลก Key จะ Secure กว่าคร้บ Reference

สรุปนิดหน่อยจาก Google Cloud Next Extended Bangkok 2025 @ KX

วันนี้กลับมางานในฝั่ง Google ครับ ผมน่าจะไปครั้งสุดท้ายตอนปี 2016 เห็นมันจัดใกล้แถว BTS วงเวียนใหญ่ พอดีเข้ามาทำงานช่วงเช้า บ่ายๆ ก็เลยลองมาฟังครับ หัวข้อที่จดๆในงาน มีตามนี้ครับ Spark the Next Big Thing: AI at Google Cloud Next ‘2025 Speaker Virot Chiraphadhanakul ใน Session นี้ Speaker มา Recap จากงาน Google Cloud Next’25 (Las Vegas) โดยงานนี้สองมุม 📌 มุมของผู้บริหาร ไปเพื่อที่จะได้เห็นภาพว่าของที่กำลังจะลงทุน มันเอามาใช้งาน เพิ่มโอกาสทางธุรกิจยังไง มีเล่า Use Case โดยมี Blog สรุปว่าแต่ละองค์กรเค้าเอา AI ไป Adapt ยังไง 📌 และส่วนของ Tech ครับ ปีนี้เน้นส่วน Agents เลย โดย Cloud ของ Google มีความพร้อม 4 ด้าน 📌 AI Hypercomputer – ส่วน Infra ที่มี Data Center + ออกแบบชิป TPU เอง 📌 Research & Models – อย่าง LLM มาจาก Research ของ Google – Attention is All You Need (ลองหาตามมีด้วย) 📌…

MK คุ้มคุ้ม อิ่มไม่อั้น 299 บาท

ปกติแล้ว ผมจะไปกิน MK แถว Site ลูกค้า หลังจบงานครับ แต่พอหลัง Covid ไม่ได้กินแบบประจำและ กินแบบถ้วย หรือ ไปสั่งร้านแถวบ้านเอง มาวันนี้เห็นเค้าโพสว่า MK คุ้มคุ้ม อิ่มไม่อั้น 299 บาท เอาหละลางานสักวันมาลองกินดีกว่าครับ สำหรับผมมาวันจันทร์มากินแถว Lotus ปิ่นเกล้า รอนานเหมือนกันมา 10:45 กว่าจะได้กิน 12:15 ยอมอดข้าวเช้ามาเลยนะเนี่ย ระหว่างรอเดินวนไปวนมา และดูเมนู (จริงๆ จดไว้เทียบราคาด้วย) พอ 12:15 ได้มากินครับ ตอนแรกพนักงานเข้ามาให้ Scan QR Code เข้า webapp ให้สั่งของครับ มันจะ Lock เลยว่าเป็นลูกค้าแบบไหน Buffer หรือ แบบ a la carte เลือกได้แบบเดียวครับ ถ้าอยากสั่งของเพิ่ม เช่น พวกเป็ด ต้องบอกพนักงานเพิ่มครับ อันนี้ตอบข้อสงสัยเหมือนกัน ว่าตอนแรกคิดว่าพนักงานวิ่งไปมาแน่ๆ สำหรับสาขาที่ไม่มีจอ Touch Screen ให้กด สรุปมี Web App มาช่วย และตอนส่งของจะมีหุ่นยนต์มาส่งให้ครับ สำหรับของที่ผมสั่งมีหลายอย่างเลยครับ หลังจากกินไปชั่วโมงอิ่มๆ แน่นๆครับ สั่งไป 22 ถาด ราคา 299 บาท + เป็ด 1 เล็ก 210 บาทครับ (จริงถ้ามีคอเป็ดจะดีครับ ราคาจะได้ลดลง) ของที่ผมชอบเนื้อบริสเก็ตออสเตรเลีย / หมุนุ่มตอกไข่ได้มาสอง แต่ระบบลง 1 / หมุนุ่มหมักพริกไทยดำครับ คิดราคาครับ ว่าถ้าไปกินจริงๆเท่าไหร่ บางอย่างถ้าไม่มีผมจะเอาของที่ราคาใกล้เคียงมาแทน เมนู จำนวน ราคาต่อหน่วย ราคา หมายเหตุ ผักกาดขาว…

[CR] ข้าวมันไก่ โรงแรมมณเฑียร

เมนูนี้ผมเคยมากินนานแล้ว สมัยก่อนที่ห้องอาหารเค้าจะ Renovate ครับ ตอนนั้นจำได้ลางๆว่าต้องกินกัน 2 คน พอปี 2025 อยากลองมาดูครับ จริงลองมา Update ราคาด้วยแหละตอนโน้นมากินน่าจะ 2 เกือบ 3 ร้อยอ่านะ มาถึงร้านตกแต่งสวยงามครับ เดินเข้ามาเกือบในสุด ห้องอาหารเรือนต้น จะอยู่ในนั้น พอมาถึงบอกพนักงานมากินข้าวมันไก่ครับ ผมสั่งไป 3 อย่างตามนี้ครับ ข้าวมันไก่มณเฑียร เมนูจานหลักเลยครับ สั่งไปแล้วรอประมาณ 10 นาทีมาเสริฟครับ โดยจะประกอบไปด้วย ข้าวมัน อันนี้สั่งมาเสริมพอไก่มันเหลือมากินคนเดียวด้วยแง่มๆ อันนี้สั่งเพิ่มราคา 110 บาทครับ ชาจีน 120 บาท รสชาติเข้มข้นดีครับ เมนูอื่นๆก็มีนะตอนไปมันช่วงบ่าย 3 มั้งห้องติ่มซำยังไม่ผิด แต่เอาจริงๆกินไม่ไหวแล้ว มันแน่นมาก ควรมา 2 คน แค่ก็ไม่รู้ว่าจะชวรใครมาดี 555 สำหรับใครที่จะมากินต้องเผื่อ Service Charge 10% และ Vat อีก 7 % ด้วยครับ Reference

เพิ่งรู้ว่ามันมี nugettrends ด้วย

หลังจากลองหา Lib ไป นิ้วมันไปลั่นตรง nugettrends เลยได้เข้าเว็บนี้ไป เว็บนี้มันที่ดูแนวโน้มการใช้ nuget lib ปกติไม่กดเลยครับ 5555 พอเล่นดูเป็นพิธีครับ ใช้ได้เหมือนกัน เอาไว้เป็นข้อมูลนึงประกอบการตัดสินใจได้ครับ สำหรับเว็บนี้หลังจากลองหาดูเรื่อยๆ มันมีตั้งแต่ ปี 2019 และมี Repo ใน GitHub ด้วย

ลองทำ REST API ให้กับ AI Model microsoft/BitNet b1.58 2B4T เชื่อมกับ Open WebUI

Blog ตอนนี้มาเขียน-กึ่งบ่นครับ 555 ปกติแล้วผมจะใช้ Model จากที่มีใน Ollama นี้เอง แล้วบังเอิญว่าเจอ X ของคนนี้ มันมี Model ของ Microsoft เค้าว่ากันว่ากันว่า Model นี้ Run บน CPU ก็ไหวนะ ถ้าใช้แบบพวก M2 จะไวขึ้นอีก Microsoft just a 1-bit LLM with 2B parameters that can run on CPUs like Apple M2. BitNet b1.58 2B4T outperforms fp LLaMA 3.2 1B while using only 0.4GB memory versus 2GB and processes tokens 40% faster. 100% opensource. pic.twitter.com/kTeqTs6PHd — Shubham Saboo (@Saboo_Shubham_) April 18, 2025 และเจ้า Model นั้นตัว microsoft/BitNet b1.58 2B4T ครับ หลังจากเห็นข่าวมาตอน APR-2025 ผมก็รอว่าจะมีใครสักคนลองเอามาทำใน Ollama ไหมนะ เห็นมีคนถามเหมือนกันนะ แต่ยังไม่มี Update ผมรอจนนานและมาจนถึงเดือน 6 ยังไม่มีนะ เอาหวะ เดี๋ยวมาหาทาง Run เองจาก Code และกัน ตอนแรก ตั้งโจทย์แบบง่ายๆ เอา Model ขึ้น…