แหล่งข้อมูลอัพเดทกระแสเทรนด์แฟชั่นใหม่ ๆ บล๊อกเกอร์บิวตี้ แนะนำเครื่องสำอางที่เป็นแบรนด์ชั้นนำ ข่าวสารของมงคลที่กำลังฮิต มีอัพเดทข่าวสารที่น่าสนใจ

รถยนต์ไร้คนขับ เทคโนโลยีที่อยู่เบื้องหลังยานยนต์ไร้คนขับ ของเทสลา

รถยนต์ไร้คนขับ

รถยนต์ไร้คนขับ เทคโนโลยีที่อยู่เบื้องหลังยานยนต์ไร้คนขับ ของเทสลา

รถยนต์ไร้คนขับ เทคโนโลยีที่อยู่เบื้องหลังยานยนต์ไร้คนขับ ได้พิสูจน์ให้เห็นถึงความสมบูรณ์แบบ ที่ยากจะคาดเดา และความคืบหน้า ไม่ได้รับความช่วยเหลือจากกองทัพแฟนๆ ผู้บริหารระดับสูงของเทสลา Elon Musk รถยนต์ไร้คนขับ คือ รถยนต์ที่สามารถขับเคลื่อนด้วยตัวเอง โดยไม่ต้องอาศัยคนควบคุม รถยนต์ไร้คนขับ ภาษาอังกฤษ ใช้คำว่า self-driving cars

อัพเดทข่าวสาร คุณจะต้องตกใจ ถ้าเราไม่ประสบความสำเร็จ ในการขับขี่ด้วยตนเองอย่างปลอดภัย กว่ามนุษย์ในปีนี้” Elon Musk ผู้บริหารระดับสูงของเทสลา กล่าวในเดือนมกราคม สำหรับทุกคนที่ติดตามคำอธิบายของ Musk อาจฟังดูคุ้นเคย

ในปี 2020 เขาให้คำมั่นสัญญาเกี่ยวกับ รถยนต์ไร้คนขับ ในปีเดียวกัน โดยกล่าวว่า “ไม่มีความท้าทายพื้นฐาน” ในปี 2019 เขาสัญญาว่า Teslas จะสามารถขับเองได้ภายในปี 2020 โดยจะเปลี่ยนเป็น “หุ่นยนต์” ที่มีขนาด 1 เมตร เขาได้คาดการณ์ที่คล้ายกันทุกปี ย้อนหลังไปถึงปี 2014

ตั้งแต่ปลายปี 2020 เทสลา ได้ขยายการทดลองใช้ รุ่นเบต้าของซอฟต์แวร์ “Full Self-Driving” (FSD) ให้ครอบคลุมเจ้าของเทสลา ประมาณ 60,000 ราย ซึ่งต้องผ่านการทดสอบความปลอดภัย และจ่ายเงิน 12,000 เหรียญสหรัฐ สำหรับสิทธิพิเศษนี้ ลูกค้าจะทดลองใช้ เทคโนโลยีช่วยเหลือผู้ขับขี่อัตโนมัติ รถยนต์ไร้คนขับ เพื่อช่วยปรับปรุง ก่อนการเปิดตัวทั่วไป

ด้วยการเปิดตัวรุ่นเบต้าเทสลา กำลังติดตามคู่มือของบริษัทซอฟต์แวร์ “ที่ที่คุณมีแนวคิดคือ ให้คุณเอาคนมาช่วยแก้ปัญหา” แอนดรูว์ เมย์นาร์ด ผู้อำนวยการห้องปฏิบัติการวิจัยความเสี่ยง ด้านนวัตกรรมของมหาวิทยาลัยแห่งรัฐแอริโซนากล่าว “ปัญหาคือเมื่อซอฟต์แวร์ขัดข้อง คุณเพียงแค่รีบูตคอมพิวเตอร์ เมื่อรถชนกัน มันจะร้ายแรงขึ้นเล็กน้อย”

รถยนต์ไร้คนขับ

การวางเทคโนโลยีที่เพิ่งเริ่มต้น ไว้ในมือของผู้ทดสอบ ที่ไม่ได้รับการฝึกฝนเป็นแนวทางนอกรีต สำหรับอุตสาหกรรมยานยนต์อัตโนมัติ (AV) บริษัทอื่นๆ เช่น Waymo ที่เป็นเจ้าของ Alphabet, Cruise ที่ได้รับการสนับสนุนจาก General Motors และ Aurora สตาร์ทอัพด้าน AV ใช้ตัวดำเนินการด้านความปลอดภัย เพื่อทดสอบเทคโนโลยี ในเส้นทางที่กำหนดไว้ล่วงหน้า

แม้ว่าการเคลื่อนไหวดังกล่าว จะสนับสนุนแฟนๆ ของลัทธิประชานิยมของเทสลา แต่ก็พิสูจน์แล้วว่า มีความเสี่ยงต่อชื่อเสียง นับตั้งแต่นำเทคโนโลยีไปอยู่ในมือของผู้คน กระแสวิดีโอที่บันทึกพฤติกรรม FSD ที่ดูประมาท ได้เพิ่มจำนวนการดูออนไลน์จำนวนมาก

มีวิดีโอของรถยนต์ในโหมด FSD ที่เลี้ยวเข้าสู่การจราจร ที่สวนทางอย่างรวดเร็ว กระตุ้นให้คนขับเบี่ยงตัวออก จากถนนเข้าไปในทุ่ง รูปที่แสดงรถยนต์ กำลังพยายามเปิดรางรถไฟ และเข้าไปในทางเดินเท้า ซ้ำแล้วซ้ำเล่า อีกตัวที่จับภาพคนขับ ที่กำลังดิ้นรนเพื่อควบคุมรถได้อีกครั้ง

หลังจากที่ระบบแจ้งให้เขาเข้าควบคุม สิ่งที่ดูเหมือนจะเป็นความผิดพลาดครั้งแรก ที่เกี่ยวข้องกับ FSD ถูกรายงานไปยัง US National Highway Traffic Safety Administration (NHTSA) ในเดือนพฤศจิกายนปีที่แล้ว ไม่มีใครได้รับบาดเจ็บ แต่รถได้รับ “ความเสียหายอย่างรุนแรง”

FSD เชี่ยวชาญในการขับขี่บนมอเตอร์เวย์ ซึ่ง “ตรงไปตรงมาอย่างแท้จริง” Taylor Ogan เจ้าของ Tesla FSD และหัวหน้าผู้บริหารของ Snow Bull Capital กล่าว บนถนนสายในใจกลางเมืองที่ซับซ้อนกว่านั้น

เขากล่าวว่าระบบนี้คาดเดาไม่ได้มากกว่า การอัปเดตซอฟต์แวร์อย่างต่อเนื่อง น่าจะช่วยขจัดข้อบกพร่อง ตัวอย่างเช่น NHTSA บังคับให้ Tesla ป้องกันไม่ให้ระบบดำเนินการ ” หยุด ” ที่ผิดกฎหมาย

(เคลื่อนที่ช้าๆผ่านป้ายหยุด โดยไม่เคยหยุดจนสุด ในขณะที่ปัญหา “การเบรกโดยไม่คาดคิด” เป็นเรื่องของการสอบสวนในปัจจุบัน ใน Ogan’s ประสบการณ์การทดลองใช้ FSD ว่า “ฉันยังไม่เห็นว่า มันจะดีขึ้นเลยด้วยซ้ำ มันทำเรื่องบ้าๆ ได้อย่างมั่นใจมากขึ้น”

เมย์นาร์ดกล่าวว่าคำอุปมาเรื่อง “ตัวขับเคลื่อนของผู้เรียน” ถือได้ว่าเป็นประเด็นบางอย่างของ FSD แต่ก็ล้มเหลวเมื่อเทคโนโลยีมีส่วนร่วม ในพฤติกรรมที่ไม่ใช่ของมนุษย์ อย่างไม่อาจโต้แย้งได้

ตัวอย่างเช่น ไม่สนใจที่จะเข้าใกล้คนเดินถนน อย่างอันตรายและเวลาที่ รถยนต์ไร้คนขับ tesla ไถเข้าไปในเสาซึ่ง FSD ล้มเหลวในการลงทะเบียน ปัญหาที่คล้ายกัน เกิดขึ้นกับซอฟต์แวร์ Autopilot ของเทสลา ซึ่งเกี่ยวข้องกับอุบัติเหตุอย่างน้อย 12 ครั้ง (เสียชีวิต 1 รายและบาดเจ็บ 17 ราย) เนื่องจากรถยนต์ไม่สามารถ “มองเห็น” รถฉุกเฉินที่จอดอยู่ได้

มีเหตุผลที่เชื่อได้ว่า วิดีโอที่เผยแพร่ทางออนไลน์ เป็นวิดีโอที่ประจบสอพลอมากกว่า ไม่เพียงแต่ลูกค้าเทสลาผู้ทดสอบเท่านั้น แต่กองทัพของแฟนตัวยง ทำหน้าที่เป็นตัวยับยั้ง ในการแบ่งปันสิ่งที่เป็นลบ รายงานพฤติกรรมที่ไม่ดีของ FSD อาจก่อให้เกิดกระแสด้านลบ

โพสต์ที่สำคัญใดๆ ใน Tesla Motors Club ซึ่งเป็นฟอรัมสำหรับผู้ขับขี่ Tesla ได้รับการต้อนรับอย่างหลีกเลี่ยงไม่ได้ จากผู้ที่กล่าวโทษผู้ใช้สำหรับอุบัติเหตุ หรือกล่าวหาว่าพวกเขาต้องการให้ Tesla ล้มเหลว “ผู้คนต่างหวาดกลัวว่า Elon Musk จะเอา FSD ที่พวกเขาจ่ายไป และผู้คนจะโจมตีพวกเขา” Ogan กล่าว

Ludicrous: The Unvarnished Story of Tesla Motors

Ed Niedermeyer ผู้เขียน Ludicrous: The Unvarnished Story of Tesla Motors กล่าวว่าสิ่งนี้ช่วยป้องกันการวิพากษ์วิจารณ์ผู้ซึ่งถูก “กองทหารอาสาสมัครออนไลน์ทิ้งระเบิด” เมื่อเขาเริ่มรายงานเกี่ยวกับบริษัท “ตลอดประวัติศาสตร์ของเทสลา ศรัทธาและความรู้สึกของชุมชนนี้… มีความสำคัญอย่างยิ่ง ต่อการอยู่รอดของเทสลา” เขากล่าว เขาเสริมว่า หลักฐานคือมัสค์สามารถเรียกร้องได้ครั้งแล้วครั้งเล่า ถึงหนึ่งปีจากการขับรถอัตโนมัติเต็มรูปแบบ โดยไม่สูญเสียความไว้วางใจจากแฟนๆ

ไม่ใช่แค่เทสลาเท่านั้น ที่พลาดกำหนดเส้นตาย ในการขับขี่อัตโนมัติ Cruise , Waymo , Toyota และ Honda ต่างก็กล่าวว่า พวกเขาจะเปิดตัว รถยนต์ไร้คนขับ เต็มรูปแบบภายในปี 2020 ความคืบหน้าได้เกิดขึ้นแล้ว แต่ยังไม่ถึงขนาดที่คาดการณ์ไว้ เกิดอะไรขึ้น?

“อันดับหนึ่งคือสิ่งนี้ ยากกว่าที่ผู้ผลิตคิด” Matthew Avery ผู้อำนวยการฝ่ายวิจัยของ Thatcham Research กล่าว ในขณะที่การขับขี่ด้วยตัวเองประมาณ 80% นั้นค่อนข้างง่าย – ทำให้รถวิ่งไปตามเส้นถนน ชิดด้านใดด้านหนึ่ง หลีกเลี่ยงการชน – 10% ถัดไปเกี่ยวข้องกับ สถานการณ์ที่ยากขึ้น เช่น วงเวียนและทางแยกที่ซับซ้อน “ 10% สุดท้ายนั้นยากจริงๆ” เอเวอรี่กล่าว “นั่นคือตอนที่คุณมีวัวตัวหนึ่ง ยืนอยู่กลางถนน ที่ไม่ยอมขยับเขยื้อน”

เป็น 20% สุดท้ายที่อุตสาหกรรม AV ติดอยู่ โดยเฉพาะอย่างยิ่ง 10% สุดท้าย ซึ่งครอบคลุมปัญหาร้ายกาจของ “กรณีขอบ” เหตุการณ์เหล่านี้เป็นเหตุการณ์ที่เกิดขึ้นได้ยากและผิดปกติบนท้องถนน เช่น ลูกบอลกระดอนข้ามถนน ตามด้วยเด็กที่กำลังวิ่ง งานถนนที่ซับซ้อน ซึ่งต้องใช้รถยึดขอบถนน เพื่อผ่านกลุ่มผู้ประท้วงถือป้าย หรือวัวตัวนั้น

รถยนต์ไร้คนขับ

รถยนต์ไร้คนขับ ที่ขับด้วยตนเองต้องใช้กฎเกณฑ์พื้นฐานร่วมกัน

เช่น “หยุดที่ไฟแดงเสมอ” และซอฟต์แวร์การเรียนรู้ด้วยเครื่อง อัลกอริธึมการเรียนรู้ ด้วยเครื่องดูดซับข้อมูลจำนวนมาก เพื่อ “เรียนรู้” เพื่อขับเคลื่อนอย่างเชี่ยวชาญ เนื่องจากกรณี ขอบมักไม่ค่อยปรากฏในข้อมูลดังกล่าว รถจึงไม่เรียนรู้วิธีตอบสนองอย่างเหมาะสม

สิ่งที่เกี่ยวกับเคสขอบ คือมันไม่ได้หายากขนาดนั้น Melanie Mitchell นักวิทยาศาสตร์คอมพิวเตอร์ และศาสตราจารย์ ด้านความซับซ้อนของคอมพิวเตอร์กล่าวว่า “อาจพบไม่บ่อยนัก สำหรับผู้ขับขี่แต่ละคน แต่หากคุณหาค่าเฉลี่ยของไดรเวอร์ทั้งหมดในโลก กรณีขอบเหล่านี้ มักเกิดขึ้นกับใครบางคนบ่อยมาก” สถาบันซานตาเฟ

แม้ว่ามนุษย์จะสามารถ สรุปจากสถานการณ์หนึ่ง ไปสู่อีกสถานการณ์หนึ่งได้ แต่ถ้าระบบขับเคลื่อนด้วยตนเอง ดูเหมือนจะ “ควบคุม” สถานการณ์บางอย่างได้ แต่ก็ไม่ได้หมายความว่า จะสามารถทำซ้ำได้ ภายใต้สถานการณ์ที่แตกต่างกันเล็กน้อย เป็นปัญหาที่ยังไม่มีคำตอบ “เป็นการท้าทาย ที่จะพยายามทำให้ระบบ AI มีสามัญสำนึก เพราะเราไม่รู้ด้วยซ้ำว่า มันทำงานอย่างไรในตัวเรา” มิตเชลล์กล่าว

มัสค์เองได้พาดพิงถึงสิ่งนี้: “ส่วนสำคัญของ รถยนต์ไร้คนขับ AI ในโลกแห่งความเป็นจริง จะต้องได้รับการแก้ไข เพื่อสร้างงานขับเคลื่อนด้วยตนเองโดยสมบูรณ์ โดยไม่ได้รับการดูแล” เขาทวีตในปี 2019 ความล้มเหลวของการพัฒนา AI ซึ่งเป็นยานพาหนะอิสระที่ทำงานในระดับที่ตราไว้ กับมนุษย์อาจจะยังไม่ออกสู่ตลาดในตอนนี้ ผู้ผลิต AV รายอื่นๆ ใช้แผนที่ความละเอียดสูง

เช่น การสร้างแผนภูมิเส้นของถนนและทางเท้า ตำแหน่งของป้ายจราจร และการจำกัดความเร็ว เพื่อแก้ไขปัญหานี้บางส่วน แต่แผนที่เหล่านี้ จำเป็นต้องได้รับการรีเฟรชอย่างต่อเนื่อง เพื่อให้ทันกับสภาพถนน ที่เปลี่ยนแปลงตลอดเวลา และแม้ในขณะนั้น ความคาดเดาไม่ได้ยังคงอยู่

Philip Koopman รองศาสตราจารย์ ด้านวิศวกรรมไฟฟ้าและคอมพิวเตอร์ที่ Carnegie Mellon University กล่าวว่าปัญหา edge-case ประกอบขึ้นด้วยเทคโนโลยี AV ที่ทำหน้าที่ “มั่นใจอย่างยิ่ง” เมื่อทำผิด “มันแย่จริงๆ ที่จะรู้ว่าเมื่อไหร่ก็ไม่รู้” อันตรายของสิ่งนี้ชัดเจน ในการวิเคราะห์ความผิดพลาดของ Uber

รถยนต์ไร้คนขับ

เจ้าหน้าที่ความปลอดภัย เล่าประสบการณ์

ซึ่ง AV ต้นแบบได้ฆ่า Elaine Herzberg ขณะที่เธอเดินจักรยานข้ามถนนในรัฐแอริโซนาในปี 2018 การสัมภาษณ์กับเจ้าหน้าที่ความปลอดภัยที่อยู่ด้านหลังพวงมาลัยในขณะนั้น อธิบายถึงซอฟต์แวร์ที่พลิกไปมาระหว่าง การจำแนกประเภทต่างๆ ของรูปแบบของ Herzberg – “ยานพาหนะ”, “จักรยาน”, “อื่นๆ” – จนถึง 0.2 วินาทีก่อนการชน

เป้าหมายสูงสุดของผู้ผลิต AV คือการสร้างรถยนต์ ที่ปลอดภัยกว่ายานพาหนะ ที่ขับเคลื่อนโดยมนุษย์ ในสหรัฐอเมริกา มีผู้เสียชีวิตประมาณหนึ่งรายต่อทุกๆ 100 เมตรไมล์ที่ขับโดยมนุษย์ (รวมถึงการเมาแล้วขับ) Koopman กล่าวว่าผู้ผลิต AV จะต้องเอาชนะสิ่งนี้ เพื่อพิสูจน์ว่าเทคโนโลยีของพวกเขา ปลอดภัยกว่ามนุษย์ 

แต่เขายังเชื่อด้วยว่า ตัวชี้วัดที่ใช้เปรียบเทียบกันได้ ในอุตสาหกรรม เช่น ข้อมูลการปลด (ความถี่ที่มนุษย์จำเป็นต้องควบคุมเพื่อป้องกันอุบัติเหตุ) ขจัดปัญหาที่สำคัญที่สุด ในความปลอดภัยของ AV

“ความปลอดภัยไม่ได้เกี่ยวกับ การทำงานเกือบตลอดเวลา ความปลอดภัยเป็นเรื่องเกี่ยวกับกรณี ที่ไม่ค่อยเกิดขึ้นซึ่งทำงานไม่ถูกต้อง” คูปแมนกล่าว “มันต้องทำงาน 99.999999999% ของเวลาทั้งหมด บริษัท AV ยังคงทำงานในช่วงสองสามช่วงแรก โดยยังมีอีกหลายแห่งที่ต้องทำ ทุกๆ 9 ครั้ง มันยากกว่าที่จะบรรลุถึง 10 เท่า”

ผู้เชี่ยวชาญบางคนเชื่อว่าผู้ผลิต AV จะไม่ต้องเจาะข้อมูล ระดับมนุษย์อย่างสมบูรณ์ เพื่อเปิดตัวยานยนต์ ที่ขับเคลื่อนด้วยตนเอง “ฉันคิดว่าถ้ารถทุกคัน เป็นรถที่ขับเคลื่อนด้วยตัวเอง และถนนทุกสาย ได้รับการกำหนดแผนที่อย่างสมบูรณ์แบบ และไม่มีคนเดินถนนอยู่รอบๆ รถยนต์ที่ขับด้วยตนเอง จะน่าเชื่อถือและน่าเชื่อถือมาก” มิทเชลล์กล่าว “มีเพียงระบบนิเวศทั้งหมดของมนุษย์ และรถยนต์คันอื่นๆ ที่ขับเคลื่อนโดยมนุษย์ ซึ่ง AI ยังไม่มีปัญญาที่จะรับมือ”

 

สามารถติดตามเรื่องราวเกี่ยวกับ เทรนด์ใหม่มาแรง ได้ที่ : @UFA-X10


เรียบเรียง BOMEBAMB