รีวิวสั้น: iPad air

ไม่ได้เขียนรีวิวอุปกรณ์อื่นๆ นอกจากกล้อง/เลนส์ หรือว่าเขียนบทความแนวอื่นๆ นอกจากถ่ายรูปซะนานเลย แต่วันนี้ต้องเขียนซะหน่อย เพราะเป็นอุปกรณ์ที่ทำมาได้ใจมากที่สุดในรอบหลายปีของ Apple นั่นก็คือ “iPad air”

ผมใช้ iPad มาแทบทุกรุ่น ตั้งแต่ iPad รุ่นแรก และผมเคยเป็นคนที่แฮปปี้กับ iPad 2 มากมาย ด้วยความลงตัวของทุกอย่าง ไม่ว่าจะเป็นขนาด น้ำหนัก จอ ฯลฯ ตอนนั้นนี่เรียกได้ว่าหลายต่อหลายครั้งที่ต้องออกไปไหนต่อไหน นี่ผมแทบจะเอาไปแต่ iPad 2 ไม่ได้เอาคอมพิวเตอร์ไปด้วยซ้ำ เพราะว่า iPad 2 มันบางและเบาพอที่จะเอาไปไหนมาไหนด้วยแบบไม่ต้องคิดมาก และมีหน้าจอที่ใหญ่พอที่จะใช้ทำงานได้สบายๆ

แต่… แทบทุกอย่างเปลี่ยนไปกับ iPad with Retina Display …… ในทางที่ค่อนข้างจะแย่ลง


DSCF1154.jpg

iPad air on a Macbook Pro

Continue Reading →

iOS หรือ Android?

เร็วๆ นี้ผมไปบรรยายเรื่อง Mobile Application Development ให้กับแลบ MSCIM ซึ่งก็มีคำถามน่าสนใจ ว่าจะทำบน iOS หรือ Android ดี

ส่วนหนึ่งก็มาจากความเห็นส่วนตัวของผมเอง ว่าอย่าไปสนใจข้อมูลเชิงการตลาด หรือสถิติทั้งหลาย ว่าใครขายดีกว่ากัน แพลตฟอร์มไหนโตเร็วกว่ากัน มากมายนัก อย่าไปสนใจ commom sense เบื้องต้นจะบอกให้เราพัฒนาโปรแกรมสำหรับแพลตฟอร์มที่มีผู้ใช้มากกว่า แต่ให้คิดพัฒนาบนแพลตฟอร์มที่เราเป็นผู้ใช้ซะเอง นั่นคือ ถ้าเรายังไม่มี ก็เริ่มต้นด้วยการให้เรามีก่อน หรือว่าหาทางทำให้ตัวเองเป็น user ก่อน

มันก็เลยมีคำถามน่าสนใจตามมาว่า “งั้นจะซื้อ iOS หรือ Android แพลตฟอร์มดี?” เพื่อให้ตัวเองได้เริ่มต้นเป็น “ผู้ใช้” และ “เพื่อทำความคุ้นเคยกับแพลตฟอร์มสำหรับพัฒนา app ต่อ” ได้

ผมมีข้อคิดแบบนี้ก็แล้วกัน

  • เขียน app ลง iOS จริงๆ มันต้องทำบน Mac ด้วย ดังนั้นถ้าไม่มี Mac หรือไม่ได้วางแผนจะซื้อ Mac ภาษีสำหรับการคิดจะซื้อ iOS แพลตฟอร์มมาเพื่อพัฒนาโปรแกรม ก็ลดน้อยลงไปด้วย (แต่ใช้ VMWare ก็ได้นะ แต่ผมเองก็ไม่เคยใช้ Xcode บน OS X บน VMWare สำหรับการพัฒนาลงเครื่องเหมือนกัน)
  • เช่นเดียวกัน (แต่ตรงกันข้าม) เท่าที่ผมทราบนะ เครื่องไม้เครื่องมือสำหรับพัฒนา Android บน Mac มันค่อนข้างจะสู้แพลตฟอร์มอื่น (เช่น Windows) ไม่ได้นะ
  • จะเอา app ลงเครื่องจริง สำหรับ iOS ต้องเสียตังค์ $99 ให้กับ Apple นะ นอกจากมหาวิทยาลัยจะมีคอร์สสอน iOS Development และ register กับ Apple (ไม่มีค่าใช้จ่าย) ก็จะให้ น.ศ. เอา app ลงเครื่องได้ แต่ขายไม่ได้ ถ้าจะขาย ก็ต้องเสียเงินเอง
  • ผมไม่มีข้อมูลเรื่องนี้สำหรับ Android
  • iOS vs Android ถ้ามองในมุมมองนักพัฒนาแล้ว มันมีข้อดีข้อเสียต่างกันนะ ในแง่ของ Hardware Diversity แล้ว iOS เหนือกว่าเยอะ เพราะว่ามันแทบไม่มี diversity … ซึ่งสำหรับนักพัฒนาที่ต้องเขียนโปรแกรม support อะไรต่ออะไรแล้ว diversity เยอะเป็นเรื่องไม่ค่อยจะดีเท่าไหร่ แค่ iPhone 3Gs กับ iPhone 4 ที่มีความละเอียดหน้าจอต่างกัน ต้องเตรียมภาพ 2 resolution ไหนละจะ iPad อีก แค่นี้ก็รำคาญแย่แล้ว
  • แต่สุดท้าย มันต้องเริ่มด้วยการเป็น “ผู้ใช้” ก่อน แล้วจะเริ่มจากการใช้อะไรดี?
  • ข้อแนะนำง่ายๆ คือ หน้าด้านไปยืนเล่นเรื่อยๆ ว่าชอบอะไรมากกว่ากัน ต่อให้มันดีแค่ไหน ถ้าใช้แล้วไม่ชอบ มันก็แค่นั้นแหละ ความชอบมันวัดแทนกันไม่ได้เสียด้วยสิ ไปยืนเล่นเลย ถ้าร้านเริ่มมองหน้า ก็เปลี่ยนร้าน
  • ลองใช้โปรแกรมพื้นฐานทั้งหลายทั้งแหล่ โทรเข้าโทรออกทำไง ดูปฏิทินทำไง เล่นเน็ตทำไง download โปรแกรมเพิ่มทำไง พอใจความเร็วมั้ย ฯลฯ เอาแค่นี้แหละ ลองสัก 1-2 สัปดาห์ ก็น่าจะรู้แล้ว ว่าชอบอะไร
  • อย่าลืมเรื่อง form factor ด้วยนะ เอาให้เหมาะมือ เอาให้ถือสบาย เพราะว่ายังไงเราก็ต้อง “ถือ” มันเวลาใช้งาน หยิบขึ้นมา ถือไว้นิ่งๆ สัก 5 นาทีเป็นอย่างน้อย ถ้ารำคาญ ก็ไม่ต้องเอา จากนั้นลองเอานิ้วโป้งลูบให้ทั่วหน้าจอ ถ้ามีส่วนไหนลูบไม่ถึง หรือว่าฝืนมือ ก็ไม่ต้องเอา เพราะว่านี่คือการใช้งานพื้นฐาน ว่างั้น
  • อย่าลืมคิดถึงเรื่องคุณภาพของ app ไว้ด้วยนะ จิตใต้สำนึกของผมมันบอกว่า iOS app บน AppStore จะมีคุณภาพ “โดยเฉลี่ย” และมีความ consistency ในเรื่องการใช้งานมากกว่า Android app บน Market ด้วยเหตุผลเรื่อง “ความเปิด” ของการให้นำ app ขึ้น store ดังนั้นมองจากมุมของ “คนที่ต้องเรียนรู้ลักษณะของ app” (ย้ำนะ จากมุมนี้เท่านั้น ไม่ใช่จากมุมมองของ consumer ทั่วไป) แล้ว iOS มีภาษีดีกว่ามาก
  • อย่ารอรุ่นใหม่มากนัก เพราะว่าต้องรอต่อไปเรื่อยๆ เล่นก่อนก็ได้เรียนรู้ก่อน

ประมาณนี้แหละ หวังว่าจะเป็นประโยชน์บ้างนะครับ

ป.ล. บรรยายโคตรสนุก สนุกมากๆ

Update 1: ที่สำคัญนะครับ อย่ามัวแต่เถียงกัน หรือก่อสงครามว่าอะไรดีกว่ากัน มือถือที่ดีที่สุด คือมือถือที่เราชอบที่สุด ใช้ประโยชน์ได้สูงสุด อย่าเอา spec มาเถียงกัน อย่าฉะกันว่าไอ้นั่นไม่มีนี่ ไอ้นี่ไม่มีนั่น ตัวเองคิดว่าอะไรดี ก็ไม่ต้องไปบอกให้คนที่ไม่เห็นด้วยเขาเห็นด้วย ถึงจะเถียงชนะ คุณก็ไม่ได้เงินหรือว่าเครดิตอะไรจากทั้ง Apple ทั้ง Google อยู่ดี ทำประโยชน์อะไรให้ชาวโลกก็ไม่ได้ เสียเวลาเปล่าๆ เอาเวลาทำแบบนั้น ไปนั่งหัดเล่น หัดเขียน app ดีกว่า อาจจะได้เงินใช้บ้าง ได้ทำประโยชน์จริงๆ ให้คนที่อยากใช้ app เราบ้าง

Megapixel vs. Sensor Size vs. Lens

Number marketing เป็นเรื่องที่ “สร้างง่าย หายยาก” และจากประสบการณ์ คงไม่หายไปไหนง่ายๆ ตัวอย่างที่เห็นง่ายๆ พบได้บ่อยๆ ก็ตั้งแต่สมัย Megahertz Myth และอีกเรื่องที่ยังคงพบอยู่ในปัจจุบัน คือ “กี่ Megapixels” และ “ซูมกี่เท่า” ซึ่ง “ความเชื่อสาธารณะ” มักจะถูกสร้างว่า เมื่อตัวเลขเหล่านี้สูงกว่า นั่นหมายถึงดีกว่า

จริงๆ ก็ไม่ถึงกับผิดซะทีเดียวนัก เพราะว่าหากปัจจัยทั้งหมดเหมือนกัน ในบางบริบท มันก็ดีกว่าจริงๆ … แต่ว่าหากปัจจัยที่มีผลต่อคุณภาพ ประสิทธิภาพ ฯลฯ อื่นๆ มันต่างกันล่ะก็ มันก็บอกไม่ได้ซะทีเดียว เช่น จริงหรือ ที่ CPU ความเร็ว 2 GHz เร็วกว่า 1.6 GHz คำตอบคือ ถ้าปัจจัยอื่นๆ เช่น สถาปัตยกรรมพื้นฐาน โครงสร้างอื่นๆ ที่มีผลต่อความเร็ว ทุกอย่างมันเท่ากัน แล้วล่ะก็ “จริง” ครับ แต่ว่าถ้าไม่เช่นนั้นแล้ว “สรุปไม่ได้” ครับ

สรุปไม่ได้ ยังดี แต่ว่าในบางกรณีมัน “ตรงข้าม” ครับ โดยปริยาย และนั่นก็เป็นเรื่องที่จะคุยกันวันนี้ครับ คือ เรื่อง Megapixel ซึ่งเรื่องนี้เคยเขียนอย่างละเอียดไปครั้งหนึ่งแล้ว ในบทความ “กี่ล้านดีคะ” ที่ Blog นี้ … และวันนี้อยากจะเขียน “ภาคต่อ” สักหน่อย

ถึงสัญญาณเรื่องนี้ในตลาดจะดีขึ้นมาบ้าง เพราะว่าค่ายกล้องหลายค่าย เริ่มหันไปผลิตกล้องที่ “MP ต่ำลง แต่ขนาดตัวรับภาพ (Image sensor) ใหญ่ขึ้น” ในระดับ High-end compact กันมากขึ้น เริ่มตั้งแต่ Panasonic LX3 ซึ่งจะว่าไป 10MP, และเซนเซอร์ขนาด 1/1.63″ นิ้ว เป็นสาเหตุที่ทำให้ผมเลือกตัวนี้ แทนที่จะเลือก Canon G10 (14.7MP) Nikon P6000 (13.5MP) และหลังจากนั้นในระดับ High-end compact ก็มีกล้องทำนองนี้ออกมาเรีื่อยๆ เช่น Canon G11, Canon S90 ซึ่งลด MP ลงไปเกือบ 1/3 ของ G10 และเพิ่มขนาดเซนเซอร์อีกด้วย และ Ricoh อีกหลายรุ่น โดยเฉพาะ GR-Digital 3, GXR และรวมถึง Micro 4/3 อย่าง E-P1, 2, GF1

แต่ว่าสัญญาณดังกล่าว ยังคงส่งไปไม่ถึงในระดับตลาดกลางและตลาดล่าง สังเกตได้จาก Nikon ที่เพิ่งจะออก Coolpix รุ่นใหม่ออกมาอีกหลายตัว ซึ่งมี MP ที่สูงขึ้น แต่ว่าในทางตรงข้าม มีขนาดเซนเซอร์ที่ลดลง! ผมจำได้ว่า เคยบ่น Coolpix S710 ว่ามี 14.5MP และ 1/1.72″ ซึ่งรุ่นใหม่ที่ออกมา S8000 นั้น ก็มี MP เกือบจะเท่าเดิมน่ะแหละ แต่ว่ามีเซนเซอร์ขนาด 1/2.33″!

และเมื่อมองกว้างๆ ไปอีกหน่อย ก็ยังคงพบว่า Megapixel War ยังคงไม่จบง่ายๆ แน่นอน

โดยส่วนตัวแล้ว ไม่เคยปฏิเสธเรื่อง MP ว่ามีมาก มันก็มีประโยชน์ เพราะว่ามันทำให้เรา crop ภาพเฉพาะบางส่วนได้มากขึ้น หรือว่าพิมพ์ภาพได้ใหญ่ขึ้น แต่ว่าจริงๆ แล้วมีกี่คนกัน ที่ต้องการพิมพ์ภาพเพื่อให้ได้ประโยชน์จาก 12MP เต็มที่? และมันก็มีคนที่ต้องการ MP มากๆ อยู่จริงๆ ไม่งั้นกล้องพวก Leica S2, Nikon D3X อะไรพวกนี้คงไม่ทำออกมา และคงขายไม่ออกกับคนที่รู้เรื่องพวกนี้แน่ๆ แต่ว่าถามว่า แล้วมันจำเป็นมั้ย กับพวกเราทั่วๆ ไป? เราคงอยากจะได้แค่ภาพดีๆ เยอะๆ ซึ่งหลายภาพอาจจะถ่ายในที่ๆ แสงไม่ค่อยจะอำนวย (มืด) ซึ่งจำเป็นต้องให้แสงเข้ามาเซนเซอร์เยอะๆ หน่อย หรือว่าถ่ายรูปลูกหลานที่กำลังซน กำลังเล่น ที่จะต้องไวหน่อย อัดรูปอย่างมากก็ 4×6 ก็แค่นั้น ซึ่งการมี MP สูง และเซนเซอร์เล็ก ไม่ช่วยอะไรเลยแม้แต่อย่างเดียว และเป็นโทษซะด้วยซ้ำ

กล้องดิจิทัล มันก็มีหลักการประมวลผลเหมือนกับการประมวลผลดิจิทัลธรรมดาน่ะแหละครับ ที่มีกระบวนการ Input-Process-Output ซึ่งกรณีนี้ “Input” มันแบ่งเป็น 2 ส่วนหลักๆ คือ

  1. เลนส์ ซึ่งใช้รับแสง (Analog data)
  2. ตัวรับภาพดิจิทัล (เซนเซอร์) ซึ่งเป็นส่วนที่ใช้ในการบันทึกแสง และแปลงข้อมูลเป็นดิจิทัล

ก่อนที่จะเข้าสู่กระบวนการ Digital Processing ที่ Image Processing Engine ที่ชื่อประหลาดๆ ทั้งหลายทั้งแหล่ เช่น Venus, Digic, Expeed ฯลฯ

เคยได้ยินไหมครับ “Garbage In, Garbage Out” ถ้าขยะเข้า ก็ขยะออก คือ ถ้าหากข้อมูลเข้ามามันไม่ดีแล้วล่ะก็ จะประมวลผลมันยังไง ผลลัพธ์ออกไป ก็ไม่ดีหรอกครับ สู้ข้อมูลเข้าที่ดีไม่มีทางได้เลย

ลองคิดดูง่ายๆ นะครับ กล้องค่ายเดียวกัน 2 ตัว ใช้เทคโนโลยีการประมวลผลภาพเหมือนกัน แต่ทำไมภาพที่ได้จาก D700+24-70/2.8 N มันช่างแตกต่างจาก Coolpix S710 มากมายขนาดไม่ต้องเอามาเทียบ ทั้งๆ ที่ทั้งสองตัวนี้ ก็มี Expeed processing engine เหมือนกัน คำตอบคือ เลนส์ และ เซนเซอร์ครับ

ก็เลยนำมาซึ่งเรื่องต่อมา ก็คือ แล้วคุณภาพของเลนส์ในบรรดากล้อง compact ทั้งหลายล่ะ ดีแค่ไหน? ผมไม่ได้ต้องการคุณภาพระดับที่บ้านเราชอบกัดกันว่า “เทพ” แต่อย่างใด เพราะว่าเข้าใจดีกว่า ซื้อกล้องตัวเล็กๆ กันไปทำไม แต่ว่าเห็นมากขึ้นเรื่อยๆ กับเลนส์ที่มีรูรับแสงที่แคบมาก คือ 6.6 หรือ 6.7 ที่ช่วงปลายของซูม! รูรับแสงที่เล็ก ก็ไวแสงน้อยเป็นธรรมดา ทำให้ต้องเปิดชัตเตอร์นานขึ้น หรือเร่งสัญญาณแสง (เร่ง ​ISO) ให้สูงขึ้น ซึ่งการเร่ง ISO จริงๆ แล้วก็คือการขยายสัญญาณเสียง เหมือนกับเร่งเสียงลำโพงน่ะแหละครับ ถ้าลำโพงไม่ดี หรือเพลงอัดมาไม่ดี มันก็จะแตกเป็นเสี่ยงๆ หากเปลี่ยนเป็นเลนส์ที่มีรูรับแสงกว้างกว่านั้น เช่น F4 จะใช้ ISO ได้ต่ำลงกว่าเท่าตัว

แล้วมันแลกมากับอะไร? แน่นอนครับ เซนเซอร์ที่ใหญ่ขึ้น เลนส์ที่ดี รูรับแสงกว้างๆ มันแลกมากับ “ขนาด” ที่ใหญ่ขึ้นตามไปด้วย แต่ว่าอย่างหนึ่งที่ช่วยได้ โดยไม่ต้องเพิ่มขนาดเซนเซอร์มากนัก หรือเปลี่ยนเลนส์ ก็คือ “การลด Megapixel” ครับ เพราะว่าจะทำให้มีข้อมูลต่อหนึ่ง Pixel เพิ่มขึ้นโดยปริยาย (ถ้างง รบกวนอ่านบทความที่แล้วของผมนะครับ)

บทความต่อไป ผมจะเขียนการเปรียบเทียบอะไรสนุก เกี่ยวกับเรื่องนี้ครับ


บทความที่เกี่ยวข้อง

“กี่ล้านดีคะ”

เมื่อวานเดินผ่านแผนกกล้องของ Power Buys ที่เซ็นทรัลปิ่นเกล้า ก็เลยเดินๆ แวะๆ เข้าไปดู compact ซะหน่อยเผื่อจะมีอะไรน่าสนใจ (จริงๆ กำลังมองหา Panasonic Lumix LX3 อยู่)

พนักงานสาวคนหนึ่งก็เดินเข้ามาทักทาย ยิ้มแย้มแจ่มใส

พนักงาน: “พี่ชื่ออะไร ขอเบอร์ได้มั้ยคะ”

ไม่ใช่ล่ะ อันนี้ล้อเล่น อันนี้สิของจริง

พนักงาน: “ดูเป็นกี่ล้านดีคะ”

เล่นเอาเอ๋อกินไปพักนึง พร้อมกับหัวเราะดังๆ ในใจ

ผม (คิด): “โห เล่นถามกันแบบนี้เลย”
พนักงาน: “พี่ จะดูเป็นกี่ล้านดีคะ”
ผม (คิด): “นี่ถ้าบอกไปว่า 30MP นี่จะเอา Hasselblad ออกมาให้มั้ยเนี่ย”
ผม: “ขอดูเรื่อยๆ ก่อนครับ”

ถึงผมจะไม่ได้ตอบอะไรไปมากกว่านี้ เพราะว่าไม่อยากไปต่อล้อต่อเถียงกับพนักงานมากกว่านี้ และไม่มีเวลาถามเล่นอะไรมากมาย แต่ว่าเราคงจะจินตนการ conversation มาตรฐานต่อไปนี้ออก

พนักงาน: “ดูเป็นกี่ล้านดีคะ”
ลูกค้า: “เอ่อ อยากได้ที่คุณภาพของภาพดีๆ ไฟล์สวยๆ คมๆ น่ะครับ”
พนักงาน: “งั้นนี่เลยค่ะ รุ่นนี้ออกใหม่ ขายดี 14.5MP นะคะ ยิ่งทำให้ภาพคมชัดมาก ถ่ายออกมาสวยค่ะ”

ครับ ไม่ใช่ความผิดของพนักงานครับ แต่ว่าอย่างที่พวกเราทุกคนทราบกันเป็นอย่างดี ว่านี่คือ “Megapixel Myth” อีกหนึ่งผลงานที่น่าภาคภูมิใจของ number marketing และส่งผลให้เกิดสิ่งที่เรียกว่า “Megapixel Race” หรือการแข่งกันปั๊มตัวเลข MP ของกล้องของบรรดาผู้ผลิตต่างๆ

Number marketing พูดง่ายๆ เป็นวิธีการทำการตลาดโดยอาศัย “ความไม่รู้” ของผู้บริโภคให้เป็นประโยชน์ โดยการ “บอกความจริงไม่หมด” หรือ “ไม่บอกปัจจัยทั้งหมด” และข้อความที่บอกนั้น “เป็นจริงในระดับหนึ่ง” ในขั้นต้น

เช่น มีครั้งหนึ่งเช่นกันในอดีตกาลอันไกลโพ้น ที่จำนวน MP มากกว่านั้นมักจะส่งผลให้ได้คุณภาพของภาพที่ดีกว่า นั่นคือสมัยที่กล้องยังมี MP น้อยๆ เกินไปอยู่ เช่นการเพิ่มจาก 1.3MP เป็น 2MP นี่น่าจะได้ภาพที่มีคุณภาพสูงขึ้นจริง และยังคงอยู่ในความสามารถของเซนเซอร์ที่จะรับได้อย่างมีประสิทธิภาพ

แต่ว่ามันกลายเป็นความเชื่อทางการตลาด การพัฒนาจาก 7.1MP เป็น 8MP ก็ยังคงพอว่า แต่ว่าการพัฒนากันในปัจจุบัน ที่ยัดเยียดกันถึง 12-15MP ลงไปในเซนเซอร์ที่ไม่ได้มีขนาดเพิ่มขึ้น นี่ทำให้คุณภาพมันดีขึ้นเหรอ? มันเกินลิมิทของเซนเซอร์ขนาดเล็กของกล้อง compact ทั่วไปจะรับได้อย่างมีประสิทธิภาพแล้ว

ผมจะไม่พูดถึงเรื่อง “ฟิสิกส์ของแสงและอิเลคทรอนิกส์ในการรับภาพของเซนเซอร์กล้องดิจิทัล” ตรงนี้ เพราะว่าอันนั้นทำเป็นบทความวิชาการยาวๆ ได้เลย แต่ว่าเทียบง่ายๆ แบบนี้

ถ้าแสงที่เข้ามา (โฟตอน) เหมือนกับฝนที่ตกมาล่ะก็ การถ่ายรูปก็เหมือนกับการรองรับน้ำฝนน่ะแหละ เซนเซอร์ก็เหมือนกับภาชนะที่เอาไปรองน้ำฝน พวกกล้องแพงๆ อย่างพวก Medium format ก็เหมือนกันเอาอ่างอาบน้ำไปรับน้ำฝน พวก DSLR Full-frame ก็คงจะประมาณโอ่ง พวก DSLR ที่มี crop-factor ทั้งหลายก็คงอารมณ์กาละมังใหญ่ๆ

แต่ว่าพวกกล้อง compact เนี่ย ถ้าเป็น sensor ขนาด 1/1.7″ (หรือ 1/1.72″) ก็คงจะอารมณ์เดียวกับอ่างล้างหน้า ส่วนขนาด 1/2.33″ นี่คงจะขันน้ำ

นั่นคือขนาดเซนเซอร์ทั้งหมดนะครับ แล้วต้องมา “แบ่ง” ออกตามปริมาณ MP อีก ดังนั้นยิ่ง MP มาก ปริมาณน้ำที่แบ่งออกไปได้สำหรับแต่ละส่วนก็ยิ่งน้อยลงไปอีก

เช่น ถ้าเราจะแบ่งน้ำอาบนึง หรือว่าโอ่งนึง ออกเป็น 100 แก้ว เราคงจะได้น้ำล้นแก้ว หรือว่าได้แก้วใหญ่ๆ แต่ว่าถ้าเราจะต้องแบ่งน้ำขันนึงออกเป็น 100 แก้วเท่ากันล่ะ? คงได้กันแก้วละไม่กี่หยด

แล้วมัน matter ตรงไหนเนี่ย?

ไม่ต้องแปลกใจเลยครับ ที่กล้องที่มี sensor ใหญ่กว่าจะเก็บรายละเอียดของสีสันและแสง ได้ดีกว่ากล้องที่มี sensor เล็ก เพราะว่าถึงแม้ว่า pixel จะเป็นหน่วยย่อยที่สุดของภาพดิจิทัลและเป็นที่ทราบกันดีกว่า ยิ่ง pixel เยอะ ยิ่งเอามาต่อกันเป็นภาพใหญ่ได้เนียนมากขึ้น และน่าจะเก็บรายละเอียดเล็กๆ น้อยๆ ได้ดียิ่งขึ้น … ภาพที่ได้จากกล้อง MP สูงแต่ sensor เล็กมักจะมีพลวัตของแสงและสีสัน (Dynamic range) ที่น่าผิดหวัง ไม่พอ ด้วยเหตุผลทางฟิสิกส์และอิเลคทรอนิกส์ … ยังทำให้มีสัญญาณรบกวน (noise) มากขึ้นอีกด้วย

เป็นหนึ่งในอีกเรื่อง ที่สุดท้ายแล้ว การนำปัจจัยเดียวจากหลายๆ ปัจจัย (เช่น MP อย่างเดียว ในหลายปัจจัยอื่นๆ เช่น Image processing engine, sensor, ฯลฯ หรือการนำ clock speed อย่างเดียวในเรื่องของ CPU design) มาทำการตลาดและโฆษณา ส่งผลให้เกิด Number marketing ที่ลงท้ายด้วย Number myth

และกำลังทำงาน against ตัวเองอย่างมากมาย

ผู้ผลิต CPU ยักษ์ใหญ่อย่าง Intel เคยเจอปัญหานี้มาแล้ว กับตอนที่ออก Pentium-M ที่สามารถทำงานได้มีประสิทธิภาพมากกว่า Pentium-4 ด้วย clock speed ที่ต่ำกว่า แต่ตลาดไม่ยอมเชื่อว่า CPU ความเร็ว 1.7 จะทำงานเร็วกว่า CPU ความเร็ว 2.0

ตอนนี้ผมเชื่อว่าผู้ผลิตกล้องหลายรายก็กำลังเจอกันอยู่ ว่าจะตอบโจทย์ยังไงดี ว่ากล้อง 10MP ดีกว่า 14MP

ขนาด sensor เล็กที่กล้อง compact ส่วนมากใช้กันน่ะครับ 10MP ก็โคตรจะเต็มกลืนแล้ว แต่ว่าก็ยังมี MP bump กันเรื่อยๆ เมื่อรุุ่นใหม่ๆ ออกมา และผมก็ต้องผิดหวังทุกทีเมื่อเข้าไปดู spec แบบละเอียดใน web ที่ไม่มีการเพิ่มขนาด sensor เลย (เช่น Nikon Coolpix S710 14.5MP 1/1.72″ sensor เทียบกับรุ่นก่อนมัน S700 12MP 1/1.72″ sensor เท่ากัน) แล้วก็ต้องไปพยายามแก้ที่การพัฒนา Image processing engine แทน เพื่อจัดการกับ dynamic range และจัดการกับ noise หลังจากรับภาพเข้ามาเรียบร้อยแล้ว

แต่ว่ามันแก้ขีดจำกัดทางฟิสิกส์ของเซนเซอร์ไม่ได้หรอก รับเข้ามาดี ก็ยิ่งดีขึ้น (ยกตัวอย่างเช่น ทำไมกล้อง Nikon ซึ่งใช้ EXPEED Image processing concept engine เหมือนกัน ภาพจาก D700 ซึ่งเป็นกล้อง 12.3MP ถึงดีกว่า Nikon Coolpix S710 ซึ่งเป็นกล้อง 14.5MP แบบฟ้ากับเหว?)

แต่ก็ยังดีใจหน่อยนึง ที่รู้สึกจะมีหลายผู้ผลิต ให้ความสำคัญและความสนใจกับเรื่องนี้พอสมควร อย่างน้อยๆ ก็ Panasonic ที่ออก LX3 ด้วยการไม่เพิ่ม MP แต่ว่าไปเพิ่มขนาด sensor แทน ถึงแม้จะไม่ได้ใหญ่กว่าเดิมมากมายก็เถอะ แล้วก็ยังมี Sigma ที่ทำ DP1, DP2 ออกมาด้วยขนาด sensor ที่ใหญ่ผิดวิสัย compact

ผมหวังว่า แนวทางนี้คงจะยังไม่หายไป และหวังว่าเมื่อ “compact เปลี่ยนเลนส์ได้” (u4/3 ของ Olympus) ออกมาจริง จะดีขึ้น

และหวังว่าผู้ผลิตรายใหญ่ๆ เช่น Nikon, Canon, Sony จะกลับมาให้ความสำคัญกับเรื่องนี้มากขึ้น มันเป็นการ back-to-basic สำหรับปัจจัยหนึ่งที่สำคัญมากๆ เลยทีเดียว หลังจากทำสงคราม MP ที่ไม่มีใครชนะ และเกินขอบเขตที่ผู้บริโภคทั่วไป (ซึ่งเป็นตลาดของ compact) จะได้ประโยชน์แล้ว

การจัดการกับ MP สูงๆ ก็ทำได้แล้ว Image processing engine ที่ฉลาด จัดการกับ noise ได้ดี และจัดการกับ dynamic range ได้ดี ถึงจะเป็นภาพจากเซนเซอร์เล็ก ก็มีกันทุกคนทุกค่ายแล้ว ถ้าเปลี่ยนขนาดเซนเซอร์ ภาพที่ได้ก็น่าจะดีขึ้นเยอะเลย ไม่ใช่เหรอ

อีกอย่าง มันก็ยังคงเป็น “Number” ไม่ใช่เหรอ พวกทำ Number marketing ก็ยังคงทำได้นี่นา

ผมหวังว่าในอนาคต ผมจะได้ยิน conversation นี้ ถึงแม้โอกาสที่มันจะเกิดขึ้นจะน้อยมากๆ

พนักงาน: “จะดูเป็นแบบไหนดีคะ”
ลูกค้า: “อยากได้กล้อง compact ตัวเล็กๆ หน่อย พกสะดวกหน่อยครับ เอาไว้เที่ยวๆ เล่นๆ ถ่ายเรื่อยเปื่อยน่ะแหละครับ”
พนักงาน: “พี่ต้องใช้รูปใหญ่แค่ไหนคะ”
ลูกค้า: “แค่ดูในจอคอมพ์ 20″ หรือว่าขึ้นจอทีวี 30″ ที่บ้าน แล้วก็ถ้าจะอัดก็คงไม่เกิน A4 ครับ”
พนักงาน: “อืมมม งั้นใช้กล้อง 10MP คงพอค่ะ”
ลูกค้า: “ครับ งั้นสองตัวนี้ตัวไหนดีกว่ากันครับ”
พนักงาน: “ตัวนี้ sensor ใหญ่กว่าค่ะ ตัวนี้ 1/1.63″ อีกตัว 1/2.33″ ให้สีให้แสงดีกว่า noise น้อยกว่าค่ะ”
…………

ฝันกันต่อไป

ปล. เขียนไปเขียนมา ยาวกว่าที่คิดแฮะ

ดาบสองคม

ดาบสองคม คมหนึ่งมันคมเท่าไหร่ อีกคมมันมักจะคมเท่านั้น

แต่เรามักจะเห็นมันคมเดียว ณ เวลาหนึ่ง จนกระทั่งอีกคมหนึ่งมันไปฟาดอะไรซักอย่างของเราเท่านั้นแหละ ที่เราจะเห็นอีกคมหนึ่ง

เทคโนโลยีทุกอย่าง เป็นดาบสองคม
การพัฒนาการทุกอย่าง เป็นดาบสองคม

เข้าทำนอง ยิ่งรัก ก็ยิ่งทุกข์ เมื่อวันหนึ่งที่ความรักนั้นมันกลับมาเป็นดาบอีกคมหนึ่ง

คุณกำลังสัมผัสดาบสองคม ที่คมที่สุดในประวัติศาสตร์มนุษยชาติ

“อินเทอร์เน็ต”

อินเทอร์เน็ต ให้ Scale ที่ใหญ่ที่สุดเท่าที่จะเป็นไปได้ ในแง่ของ Information Economy นั่นคือ ทุกคนแทบจะมี Economy of Scale เทียบเท่ากัน ขาดแต่เพียง Social Networking รองรับเท่านั้น

ดาบสองคมที่ว่านั่น ก็คือ ถ้าทุกคนอยู่ในฐานะของ “สื่อ” ได้แล้วล่ะก็ จะมีกี่คนเล่าที่มีจรรยาบรรณของสื่อ หรือว่าคำถามที่ดีกว่านั้น จะมีกี่คนเล่าที่ใช้มันไปในทางสร้างสรรค์

เราต้องมี Information Literacy ที่ดีขึ้น …..

นอกจากนั้น อินเทอร์เน็ต มันยังเป็นแหล่งเก็บข้อมูลชั้นดี ที่ไม่มีวันล่ม แทบไม่มีวันหาย

ข้อมูลหลายอย่าง ถ้ามันอยู่บนอินเทอร์เน็ตแล้ว มันแทบจะเป็นอดีตที่ไม่มีวันลบวันเลือน ….

เช่น เมื่อไม่กี่ปีก่อน ถ้ามีแฟน แล้วเลิกกัน อยากจะตัดขาดทิ้งทุกอย่าง มันคงจะทำได้ไม่ยาก ก็แค่เอาเผารูป เผาฟิล์ม เผาจดหมาย ก็เท่านั้นเอง ……

แต่ว่าทุกวันนี้ ถ้ามันอยู่บนอินเทอร์เน็ตเสียแล้ว Searchๆ ไป ค้นๆ ไป มันก็ยิ่งเจอไปเรื่อยๆ ทั้งข้อความที่เคยคุยกัน ซึ่งแสดงความสัมพันธุ์ที่เคยมี รวมทั้งภาพโน้นภาพนี้จากวันที่เคยมีกันและกัน และมันอาจจะดูดีกว่าปัจจุบันมากมาย วันดีคืนร้าย ภาพเหล่านั้นของวันที่เคยดี อาจจะกลับมาหลอกหลอนตัวเองหรือคนอื่น ในรูปแบบไหนก็ได้

อืมมม แล้วก็ .. บางคนก็เขียนแต่เรื่องดีๆ ของกันและกัน เรื่องเสียๆ หายๆ ไม่เคยเขียน บางคนกลับกัน เขียนแต่เรื่องเสียๆ หายๆ เรื่องดีๆ ไม่เขียน พอวันหนึ่งที่มันกลายสภาพเป็นเพียงหน้าหนึ่งในประวัติศาสตร์ ข้อความทั้งดีและไม่ดี ก็คงส่งผลต่างกัน

ดาบสองคมชัดๆ

เริ่มเห็น Accord 2008 ล่ะ

เพิ่งเริ่มเห็น Accord ตัวใหม่ จริงๆ บนถนนเร็วๆ นี้เอง … ความรู้สึกแรก คือ ….​ แปลก

มันสวยนะ แต่ไม่หมดจด ดูเกินๆ ยังไงไม่รู้ …. เหมือนกับเอาโน่นนี่มาตัดปะกันอย่างไม่เนียน ไม่ลงตัว ความเหลี่ยมความโค้งความมน มันไม่ได้ยังไงก็ไม่รู้

ส่วนเรื่องไฟท้าย นี่ดูก็รู้ ว่าเอามาจาก BMW Series 5+7 แต่ว่า….. เหมือนกับตัดปะโดยไม่เอากระดาษทรายขัด … ก็ขัดตาอีกจนได้ (แต่ ​BMW นี่เนียน)

รถดูใหญ่ขึ้นนะ (ก็จริง จาก spec) แต่ว่าเหมือนกับคนหัวเล็กตัวโตอ่ะ มองจากด้านหลังแล้วมีความรู้สึกว่าหัวเล็ก แต่ว่าพุงยื่น .. ตัวรถมันบวมๆ ยังไงก็ไม่รู้

อาจจะรู้สึกไปเองนะ … อาจจะต้องรอ Minor change…

และแล้ว … Minor change ก็ออกมา แบบมีไฟหยดน้ำ …. แว้กกกกกก

ฟังไม่ได้ศัพท์ + ความไม่รู้… (ต่อเอาเอง)

คนเรา บางทีเวลาที่ไม่รู้อะไรแต่ว่าทึกทักไปว่ารู้ แล้วเอาพูดๆ ต่อ เนี่ยมันแย่จริงๆ แฮะ

วันนี้ได้ยินมาจากคนที่ทำงานด้วย ว่ามีคนโทษผมด้วยว่ะ ว่าผมเป็นต้นเหตุของการไม่เสถียร (หรือเรียกเป็นภาษาง่ายๆ ว่า​ “เน่า”) ของอินเทอร์เน็ตในมหาวิทยาลัย

เพราะว่าผมไป “ดูดอินเทอร์เน็ต” ไว้ และก็ได้บอกด้วยว่า ผมเคยทำให้เค้าดู

จะ debunk กันตรงนี้ก็คงจะใช่ที่ แต่ว่าสิ่งที่ผมทำน่ะนะ ไม่มีอะไรมากหรอก อย่างมากก็ใช้ wget ไปเรียก website ที่จำเป็น มาเก็บไว้ในเครื่อง ซึ่งก็ไม่มีอะไรมากไปกว่า request ไปที่ HTTP server​ ธรรมดา เพียงแต่ผลไม่ได้แสดงที่ browser แต่ว่ามาเอาเก็บไว้เป็นไฟล์ในเครื่อง เท่านั้นเอง

เดี๋ยวนี้เครื่องมือเหล่านี้ก็มีเยอะแยะไป เช่น ​Yojimbo และจริงๆ แล้วมันก็ไม่ได้มีอะไรใหม่กว่าการทำงานใน Off-line mode ของพวก browser เท่าไหร่ ที่จะพึ่งพา cache หรือว่าข้อมูลที่ดูดมาแล้วในเครื่องตัวเอง

ซึ่งก็ไม่ได้หนักอะไรมากกว่าการเล่นเน็ตด้วย browser และไม่ได้หนักกว่าการใช้งานอินเทอร์เน็ตปกติเลยแม้แต่น้อย (ยกเว้นแต่ผมจะทะลึ่งไปดูดผลลัพธ์ทุกตัวที่ google มันค้นมาได้จาก query หนึ่งๆ แบบ recursive หรือว่าไปดูด youtube แบบ recursive ซึ่งก็คงจะไม่มีใครฉลาดไปทำแบบนั้น)

จริงๆ มันค่อนข้างจะเบากว่าด้วยซ้ำ ในกรณีที่ต้องใช้งาน documentation (API reference) เพราะว่ามันต้องเปิดหน้าเดิมซ้ำไปซ้ำมาบ่อยมากๆ (ใครมันจะไปนั่งจำ syntax ของทุก function ทุก method ใน API ทุกตัว?) และ ไม่ใช่ทุก API มันจะมี Off-line doc ไว้ให้ download ไปใช้เลย (จะเป็น tar-ball หรือว่า zip หรือว่า PDF ก็แล้วแต่)

อ่อ อีกอย่างนะ ถ้าผมเป็นคนดูแล proxy นะ ผมคงจะต้องทำแบบนั้น เพื่อที่จะ cache หน้าที่มีการ request บ่อยๆ ไว้ที่ proxy ของมหาวิทยาลัย เพื่อให้เน็ตมันเร็วขึ้น (เพราะว่าไม่ต้องไป request ต่อข้างนอก) ซึ่งถ้าผมเป็นคนดูแล และมีการ cache ที่ proxy ที่ฉลาดหน่อยล่ะก็ เน็ตมันจะเร็วขึ้น ไม่ใช่เน่ามากขึ้น ซึ่งอันนี้พวกน้องๆ ที่เรียน com-sci หรือว่า ​IT มันน่าจะเข้าใจไม่ยาก

มันตลกตรงที่ คนที่ไม่รู้ และ no idea เรื่องพวกนี้ กลับเชื่อด้วยแฮะ ไม่พอ ดันเอาไปพูดกันต่อด้วย และที่น่าตลกกว่านั้น ก็คือ บางคนก็ดันเป็นคนที่เรียน com-sci/IT น่ะแหละ พวกนี้ยิ่งแย่ เพราะคิดว่าตัวเองรู้ ตัวเองมี idea และตัวเองเข้าใจถูกต้อง และที่แย่ก็คือ พวกนี้จะมี creditability อะไรบางอย่างเวลาไปพูดกับคนอื่น (ที่ไม่ได้เรียนหรือว่าทำงานด้านนี้)

ผมพยายามนะ ที่จะแก้ความเชื่อสาธารณะที่มันผิดๆ เหล่านี้ทิ้งไปบ้าง แต่ว่ามันคงจะยากเกินความสามารถที่ผมจะไปแก้ล่ะครับ เพราะว่าไอ้ความเชื่อผิดๆ เนี่ย มันเชื่อตามกันง่ายเหลือเกิน เพราะว่ามันไม่ต้องใช้ความรู้พื้นฐานอะไรทั้งนั้น แค่พูดให้มันเข้าๆ แก๊บหน่อย คนก็เชื่อกันแล้ว โดยไม่ต้องมีหลักการอะไรอ้างอิงหรือว่ารองรับทั้งนั้น

ถามจริงเหอะนะ ไอ้คนพูดเนี่ย มันเคยไปดู traffic ในมหาวิทยาลัยหรือเปล่า เคยไปดู log พวกนี้บ้างมั้ย ว่ามันมี activity อะไรบ้าง

ผมก็เซ็งเหมือนกันนะ ที่เน็ตเวิร์กที่สถาบันวิจัยและพัฒนามันไม่ค่อยจะเวิร์ก มันติดๆ ดับๆ และผมก็เสียงานเสียการ ผมก็เคยคุยกับคนที่เค้าดูแลด้านนี้โดยตรง ทั้งผู้หลักผู้ใหญ่และระดับเจ้าหน้าที่มาเยอะ เรื่องประสิทธิภาพและเรื่อง traffic ของเน็ตเวิร์กในมหาวิทยาลัย ตลอดจนเรื่องข้อจำกัดในการเข้าถึง

และเวลาที่มีปัญหาอะไร และทางเจ้าหน้าที่บอกมาว่าปัญหามันอาจจะเกิดมาจากการใช้งานบางอย่างของทางผม (และทีมงาน) ก็พยายามแก้ปัญหาให้เร็วที่สุด เพราะว่าไม่อยากเป็นปัญหากับใครทั้งนั้น โดยเฉพาะกับทรัพยากรสาธารณะอย่างเช่นอินเทอร์เน็ต

สรุป: เหนื่อยแฮะ

Web Services: REST vs. SOAP

อ้างอิง: Blognone: REST vs. SOAP Web Services โดย krunapon

ผมอ่านข่าวนี้ที่ blognone ด้วยความรู้สึกอยากจะตะโกนในใจว่า Take the Red Pill! Welcome to the Real World! ยังไงก็ไม่รู้

ใช่ครับ ถึงมันจะไม่ใช่ข่าวที่มีการประกาศใหญ่โตมโหฬาร (แบบ MS, Sun, IBM หรือว่าบริษัทชื่อใหญ่ๆ โตๆ ออกมาให้การสนับสนุนหรือว่าจับมือกันให้ความร่วมมือในเรื่องอะไรสักอย่าง) ที่อาจจะ catch ความสนใจและ convince คนที่อยู่ใน mainstream ได้ง่ายกว่า แต่ว่าก็ดีเหมือนกันที่คนเริ่มลืมตามองความเป็นจริงอันโหดร้ายของ SOAP-based Web Services มากขึ้น

ในหลักการแล้ว SOAP มันก็เป็น protocol ที่ดีนะ แต่ว่าในความเป็นจริงแล้ว เนื่องจากความต้องการของการใช้ Web Services ในปัจจุบัน มันเป็นการเข้าถึง resource แบบ CRUD เสียเป็นส่วนมาก การใช้งาน SOAP-based ในความรู้สึกของผม มันเลยกลายเป็นการขี่ช้างจับตั๊กแตนไปโดยใช่เหตุ และจะต้องมีองค์ประกอบอะไรต่างๆ มากมาย อีกทั้งปัญหาอย่างหนึ่งที่ตามมาในโลกความเป็นจริง ก็คือ ความหลากหลายของข้อมูล ความร้อยพ่อพันแม่ของ representation ทำให้การกำหนดมาตรฐานของ SOAP นั้น นับวันมันจะมีแต่ใหญ่ขึ้น และ bloated ขึ้นอย่างใช่เหตุ …. วิธีการ scale ของ SOAP มันสร้างความยุ่งยากและลำบากเอาเรื่อง

ก็เลยทำให้ตัว S ใน SOAP ซึ่งควรจะย่อมาจาก Simple กลายเป็นเรื่องตลก เพราะว่ามันเป็นทุกอย่าง ทุกอย่างจริงๆ นอกเหนือจาก Simple มันมีทุกอย่าง นอกจาก Simplicity

ที่เขียนนี่ ไม่ได้แปลว่า SOAP ไม่ดี หรือว่า REST คือคำตอบสำหรับทุกอย่างนะ ใครที่รู้จักผมจะรู้ดีว่า สำหรับกรณีแบบนี้ ผมแทบไม่เคย claim คำว่า 100% เพราะว่า exception มันมีแทบทุกเรื่องน่ะแหละ ยากที่จะหาอะไรบางอย่างที่มันเป็นจริงในทุกกรณี .. แต่ว่า exception มันจะต้อง catch และ handling แยกต่างหาก ไม่ใช่ยกมาพูดเป็น counter example หักล้างกับ general cases อยู่เรื่อยไป จนลืม handling กรณี “ทั่วไป” (general cases) อีก 80% ของกรณีทั้งหมด… เช่นกรณีนี้ คือ (น่าจะกว่า) 80% ของความต้องการการใช้งาน Web Services ในปัจจุบันนั้นคือ request resources แบบ remote ซึ่ง REST มันดีกว่าจม และไปอยู่บน (= ใช้ความสามารถของ) protocol ที่มาตรฐานมาก คือ HTTP อีกตะหาก

ในขณะที่บริษัทใหญ่ๆ ที่ชอบนั่งกำหนด standard ก็ยังคงบ้ากับ SOAP-based standard spec กันต่อไป บริษัทใหญ่ๆ ที่ต้องทำงานให้บริการข้อมูลจริงในโลกความเป็นจริง เช่น Google หรือ Amazon (ที่ Web Services มีผลอย่างมากกับ model ทางธุรกิจของตัวเองด้วย) กลับมีแนวโน้มจะกลับมาใช้ REST เพิ่มขึ้นเรื่อยๆ นี่ยังไม่นับถึงบริษัทเล็กๆ อีกนับร้อยนับพัน ที่ต้องให้บริการข้อมูลจริง เชื่อมโยงจริง ใช้งานจริง เป็นส่วนหนึ่งของระบบนิเวศน์ของข้อมูลขนาดใหญ่จริง .. ที่ใช้งาน WS แบบ REST มากกว่าที่จะเลือก SOAP (คนใช้ SOAP มันก็มีนะ ไม่ใช่ไม่มี)

การทำงานในโลกความเป็นจริง บางทีมันมีอะไรที่มากกว่า เรียบง่ายกว่า และ work กว่าการทำงานตามกฏเกณฑ์ข้อกำหนดข้อบังคับ ที่นั่งกำหนดกันบนกระดาษ ด้วยความรู้สึกที่ว่า ถ้าเป็นแบบนี้การทำงานจริงจะราบรื่น การทำงานจริงจะไม่มีปัญหา ฯลฯ หลายครั้ง สุดท้ายก็ต้องกลับสู่ความเรียบง่าย ด้วยการกลับมาดูธรรมชาติของตัวงานจริง

และ SOAP vs. REST ก็เป็นอีกบทพิสูจน์หนึ่ง …. ที่ยังคงดำเนินต่อไป

ปล. จริงๆ ผมเคยเขียน blog เรื่อง SOAP หรือว่าทำนองบ่นๆ เรื่อง SOAP ไปแล้วหลายครั้ง

เทอมหน้าวิชา WWW Programming ในส่วนของ Web Services จะสอน REST Web Services เป็นหลัก ส่วน SOAP คงจะยกยอดไป “ถ้ามีเวลา” แทน

[update 1]: ลืมไป ว่าเมื่อไม่นานมานี้ Tim Bray จาก Sun Microsystems ได้มาพูดถึง REST ไว้ด้วย และน่าสนใจทีเดียว และเขียนไว้หลายบทความ รวมถึงการให้สัมภาษณ์หลายครั้งด้วย ลองหาอ่านๆ ได้จาก blog ของเค้าครับ

  • tbray.org (link นี้เฉพาะในส่วนของ Web Services Technology เท่านั้นนะครับ) ภายในแต่ละ link ค่อนข้างยาวทีเดียว น่าอ่านครับ
  • InfoQ: Tim Bray on Rails, REST, XML, Java and More อันนี้สัมภาษณ์
  • Tim Bray: Issues in Web Frameworks เป็น PDF ของ slide ที่ Bray ไปพูดเรื่องเกี่ยวกับ Web Frameworks ครับ มีเรื่อง Web Services ด้วย

[update 2]: เพิ่งอ่านที่ James Clark เขียนเรื่อง Bytes not Infosets ที่ remark น่าสนใจหลายเรื่องเหมือนกัน ที่อาจจะไม่เกี่ยวกับ SOAP vs. REST ตรงๆ แต่ว่าโดนหางเลข เนื่องจาก WS-* แบบ SOAP มัน emphasis กับ XML infosets มากเลย …. และ James Clark (คนที่เราน่าจะฟังมากที่สุดคนนึงในเรื่องของ XML) ก็มี remark ว่า

My conclusion is this: one aspect of the WS-* approach that should not be carried over to the REST world is the emphasis on XML infosets.

เห็นด้วยไม่รู้จะเห็นด้วยยังไง

[update 3]: minor clarifications added

หนังสือที่อยากได้ (Complex Systems) และ amazon.com

เมื่อวานนี้ Amazon ส่ง e-mail มาโฆษณาหนังสือ … เห็นเล่มนี้แล้วอยากได้มาก



Complex and Adaptive Dynamical Systems: A Primer โดย Claudius Gros มีกำหนดออกวันที่ 1 พย. ปีนี้ น่าจะเป็นของขวัญวันเกิดให้ตัวเองได้ดีเลยนะเนี่ย

มี description (เอามาจาก Amazon):

We are living in an ever more complex world, an epoch where human actions can accordingly acquire far-reaching potentialities. Complex and adaptive dynamical systems are ubiquitous in the world surrounding us and require us to adapt to new realities and the way of dealing with them.

This primer has been developed with the aim of conveying a wide range of “commons-sense” knowledge in the field of quantitative complex system science at an introductory level, providing an entry point to this both fascinating and vitally important subject.

The approach is modular and phenomenology driven. Examples of emerging phenomena of generic importance treated in this book are: – The small world phenomenon in social and scale-free networks; – Phase transitions and self-organized criticality in adaptive systems; – Life at the edge of chaos and coevolutionary avalanches resulting from the unfolding of all living; – The concept of living dynamical systems and emotional diffusive control within cognitive system theory.

Technical course prerequisites are a basic knowledge of ordinary and partial differential equations and of statistics. Each chapter comes with exercises and suggestions for further reading – solutions to the exercises are also provided.

อยากได้ชะมัด .. นี่ถ้ายังอยู่ญี่ปุ่นนี่คงจะสั่งไปแล้วนะเนี่ย..

นี่แหละ power ของการเก็บข้อมูล และการวิเคราะห์พฤติกรรมผู้ใช้ ผมเคยซื้อหนังสือเกี่ยวกับ Chaos Theory, Fractals, Complex Systems theory จาก Amazon ไว้หลายสิบเล่ม (นอกจากหนังสืออื่นๆ นะ ไว้วันหลังจะทำ reading list ให้) ไม่พอนะ ผมอาจจะมีพฤติกรรมการซื้อหนังสือจากสำนักพิมพ์ Springer เยอะด้วย พอเอาข้อมูลนี้มาวิเคราะห์นะ ระบบ computer ที่ Amazon ก็เลยไม่ลังเล (computer มันลังเลเป็นที่ไหน) ในการที่จะส่ง e-mail มาบอกผมว่า มีหนังสือใหม่เล่มนี้นะ สนมั้ย

  • ถ้า Amazon ส่งโฆษณามามั่ว มีหนังสือใหม่อะไรก็ส่งมาหมด ผมก็คงสั่งโปรแกรม e-mail client ของผมให้ filter มันไปเป็น junk แบบถาวร
  • ถ้าส่งมาแบบ 50 mail มีดีซักอัน ผมก็คงจะ filter มันเข้าไปอยู่ใน mailbox ที่ไม่สำคัญ อยากอ่านก็อ่านอยากลบก็ลบ (แต่ไม่ใช่ junk) แล้วปกติก็จะลบมากกว่าอ่าน
  • ถ้ามันส่งมาแบบ 10 mail ผมคิดว่าเข้าท่าซัก 1 เนี่ยสิ ค่อยน่าสนหน่อย

อีกอย่าง ยิ่งผมซื้อเยอะเท่าไหร่ Amazon ก็ยิ่งวิเคราะห์พฤติกรรมการซื้อของผมได้ดีขึ้นเท่านั้น ยิ่งมีคนซื้อของจาก Amazon เยอะขึ้นเท่าไหร่ Amazon ก็ยิ่งวิเคราะห์พฤติกรรมของทุกคนโดยรวมได้ดีขึ้นเท่านั้น เพราะว่านอกจากจะวิเคราะห์แค่จากตัวผมเองแล้ว ก็ยังวิเคราะห์จากคนที่ซื้อของใกล้เคียงกับที่ผมซื้ออีกด้วย ว่าคนพวกนั้นซื้ออะไร ผมน่าจะสนใจตาม อะไรทำนองนี้

ซึ่งมันก็เป็น hit-and-miss

แต่ว่าทุกครั้งที่ผมซื้อ Amazon ก็ยิ่งมีโอกาสได้เงินจากผมมากขึ้นในอนาคต

การใช้ computer และทฤษฎีต่างๆ อย่างฉลาดในเชิงธุรกิจ บางทีมันเพิ่มโอกาสในการทำธุรกิจ ในการขายของ ในการเชื่อมโยง ในการบริหารจัดการมากขึ้นอย่างมากมาย

แต่น่าเสียดาย (อีกล่ะ พักนี้มีแต่เรื่องน่าเสียดาย) ที่หลายๆ คนในบ้านเราที่ศึกษาทฤษฎี ไม่สามารถนำตรงนี้ไปใช้งานจริงได้เท่าไหร่ และไม่สามารถประยุกต์ใช้ในเชิงธุรกิจได้อย่างมีประสิทธิภาพเท่าที่ควร หรือไม่ได้เอาเสียเลย

ปล. ใครมีประสบการณ์สั่งหนังสือจาก Amazon พักหลังๆ ช่วยบอกหน่อยนะครับ ว่าดีมั้ย (การขนส่งและ delivery นะ) เพราะว่าเคยสั่งครั้งนึงเมื่อนานมาแล้วตอนกลับมาเยี่ยมบ้าน ตอนนั้น delivery ในบ้านเราห่วยสุดๆ…. เลยเข็ด

Computer Stupidities

มี website อยู่ที่หนึ่งนะ ที่ผมเคยชอบเข้าไปดูเมื่อก่อน (ตอนนี้ก็ once in a while) เข้าไปหาเรื่องสนุกๆ อ่านเล่น

ไม่มีอะไรมากกว่าการเป็น web รวมเรื่องราวต่างๆ ที่มีคน submit กันเข้ามา ส่วนมากจะเป็นเรื่องตลกๆ เวลาที่มีใครไปเจอคนทำอะไรเปิ่นๆ เพราะว่าความเข้าใจผิดแบบไม่น่าเชื่อ มีแบ่งเรื่องราวไว้เยอะแยะ เช่น

  • Piecing it together (เอาเรื่องโน้นเรื่องนี้มาจับแพะชนแกะกันมั่ว)
  • Operating System (ความเข้าใจผิด เรื่องขำขัน เกี่ยวกับ OS)
  • Programming (ใครเรียน CS/IT/CE ต้องอ่าน!)
  • Mincing Words (เอาคำมายำกัน)
  • Paranoia (ความกลัวจากความเชื่อผิดๆ จนเข้าขั้นวิตกจริต)
  • Stupid Tech Support (อันนี้ขำมาก)
  • Stupid Salesman (อันนี้ด้วย)
  • ……. เยอะแยะ เข้าไปอ่านเองนะครับ

เมื่อก่อนอ่านก็ขำนะ แต่ว่าทำไมเดี๋ยวนี้มันต้องหัวเราะแห้งๆ ก็ไม่รู้ ขำไม่ออกมากขึ้นหลายๆ อย่าง แต่ว่าก็ยังเข้าไปอ่านอยู่ดี มีความรู้สึกว่าดีกว่าอ่านกระทู้ที่ web หลายๆ web หน่อยนึงมั้ง

อืมมม แต่ว่าจริงๆ คงต้องมองย้อนกลับไปที่ต้นตอของปัญหามากขึ้น ด้วยความรู้สึกส่วนตัวอย่างหนึ่งที่มีมานานแล้วนะ คือ computer แล้วก็ information technology มันกลายเป็น mainstream เร็วเกินไป เร็วเกินกว่าที่คนจะมี literacy กับมันมากพอ คือทุกวันนี้ computer กลายเป็นอุปกรณ์มาตรฐานอย่างหนึ่งในการใช้ชีวิต การทำงาน การเรียน การติดต่อ ฯลฯ แต่ว่ามันต่างจาก TV, วิทยุ, โทรศัพท์, projector, ฯลฯ มากมายมหาศาล เรียกว่ามันคนละ order of magnitude เลยก็ว่าได้

พูดง่ายๆ ว่าเราสามารถใช้ TV ได้โดยไม่ต้องคิดว่ามันจะตีกับวิทยุหรือเปล่า แต่ว่าถ้าเราเปิดโปรแกรมดูหนังพร้อมกันกับโปรแกรมฟังเพลง มันอาจจะตีกันทำให้ crash กันได้ไม่ยากเย็นเลย หรือว่าเราสามารถที่จะใช้เครื่องคิดเลข กับเครื่อง word processor ได้โดยไม่ต้องคิดว่าพวกมันแย่งทรัพยากรกันยังไง (นอกจากค่าไฟค่าแบตเตอรี่จากกระเป๋าเรา) หรือว่าเรื่องไวรัสที่ติดกับโปรแกรมตัวนึงอาจจะทำลายไฟล์ได้ทั้งเครื่อง ฯลฯ

เท่าที่ทดสอบดูนะ ทั้งคนในวงการคนนอกวงการ เป็นพวกนักศึกษาก็เยอะ คนที่ใช้คอมพิวเตอร์จริงๆ มีความเข้าใจหลายเรื่องที่ผิดพลาด สับสน ซึ่งขอออกตัวเลยนะ ว่า “มันไม่ใช่ความผิดของเค้า” แต่ว่าผมเป็นห่วงน่ะ

ช่วยกันได้ก็ช่วยๆ กันไปนะครับ เรื่อง computer/information literacy กับคนใกล้ตัวเนี่ย สำคัญเชียวแหละ อ่าน web นั้น อ่านกระทู้ทั่วไปตาม webboard หรือว่าเจอคนใกล้ๆ ตัว ก็ช่วยกันสร้างความเข้าใจที่ดีขึ้นกับ computer เถอะครับ มันใกล้ตัวกว่าที่เราคิด