ReadyPlanet.com


ปัญญาประดิษฐ์ในรูปแบบของอินเทอร์เฟซ


การศึกษาใหม่แสดงให้เห็นว่าการเชื่อมต่อระหว่างสมองและคอมพิวเตอร์ถอดรหัสสัญญาณสมองได้อย่างไร ทำให้ผู้ป่วยที่เป็นอัมพาตสามารถพูดได้อีกครั้ง

การศึกษาใหม่สองชิ้นที่ตีพิมพ์ในวารสารNatureแสดงให้เห็นว่าปัญญาประดิษฐ์ในรูปแบบของอินเทอร์เฟซคอมพิวเตอร์สมองประสิทธิภาพสูง (เรียกว่า BCIs) ที่ฝังอยู่ในสมองสามารถถอดรหัสสัญญาณสมองและส่งเสียงให้กับผู้ที่สูญเสียความสามารถในการสื่อสารตามธรรมชาติได้อย่างไร
แนะนำ สล็อต แตกง่าย จ่ายจริง
เมื่อกว่า 18 ปีที่แล้ว แอน จอห์นสัน วัย 30 ปี ซึ่งเป็นแม่ ภรรยา และครูในโรงเรียน ประสบภาวะหลอดเลือดสมองตีบซึ่งทำให้เธอเป็นอัมพาตขั้นรุนแรง แม้ว่าในที่สุดเธอก็สามารถขยับกล้ามเนื้อใบหน้าจนสามารถหัวเราะหรือร้องไห้ได้อีกครั้ง แต่กล้ามเนื้อที่จะทำให้เธอพูดไม่ได้ผลอีกต่อไป
ในปี 2021 Johnson ติดต่อนักวิจัยที่ UCSF หลังจากอ่านเกี่ยวกับ  งานวิจัย ของพวกเขา  กับชายที่เป็นอัมพาตชื่อ Pancho ซึ่งมีภาวะหลอดเลือดสมองตีบจนไม่สามารถพูดได้ ด้วยเทคโนโลยีของ BCI Pancho กลายเป็นบุคคลแรกที่ป่วยเป็นอัมพาตเพื่อแสดงให้เห็นว่าสามารถถอดรหัสสัญญาณเสียงสมองและคำพูดให้เป็นคำเต็มซึ่งจะปรากฏเป็นข้อความบนหน้าจอได้
สำหรับ การศึกษาล่าสุดนี้ ซึ่งตีพิมพ์เมื่อวันที่ 23 สิงหาคมใน วารสาร Natureทีม UCSF มีเป้าหมายที่จะบรรลุสิ่งที่ทะเยอทะยานยิ่งขึ้นไปอีก นั่นคือการถอดรหัสสัญญาณสมองของจอห์นสันที่เกิดจากคำพูดของเธอที่พยายามพูดให้เป็นเสียงพูด ควบคู่ไปกับการเคลื่อนไหวที่ทำให้ใบหน้าของบุคคลเคลื่อนไหวในระหว่างการสนทนา
เทคโนโลยีแปลคำพูดที่พยายามแปลงเป็นคำพูดที่ได้ยินโดยตรง
“เราคิดว่ามีความก้าวหน้าที่สำคัญบางประการจากงานนี้ การวิจัยครั้งใหม่นี้ถือเป็นการก้าวกระโดดครั้งใหม่” ผู้เขียนร่วมDavid Moses, PhD , ผู้ช่วยศาสตราจารย์ด้านการผ่าตัดทางระบบประสาทที่ UCSF Weill Institute for Neurosciences ในซานฟรานซิสโก กล่าว
สำหรับผู้เริ่มต้น เทคโนโลยีนี้จะเร็วกว่า — เร็วกว่าประมาณ 5 เท่า — มากกว่าที่เคยแสดงด้วย Pancho ก่อนหน้านี้ ดร. โมเสสกล่าว “แอนสื่อสารด้วยความเร็วประมาณ 78 คำต่อนาที ซึ่งไม่เร็วเท่ากับที่คุณและฉันคุยกัน แต่มันกำลังไปถึงจุดนั้นอย่างแน่นอน และขนาดคำศัพท์ของเธอก็ใหญ่ขึ้นมากและปัจจุบันมีคำศัพท์มากกว่า 1,000 คำ” เขากล่าว
ความก้าวหน้าที่สำคัญอีกประการหนึ่งก็คือ ในครั้งนี้ นักวิจัยได้แปลสัญญาณของสมองเป็นพยัญชนะและสระที่เป็นคำพูดโดยตรง แทนที่จะแปลเป็นข้อความ “เราสามารถสังเคราะห์คำพูดได้โดยตรงจากการทำงานของสมอง ดังนั้นให้ถอดรหัสการแทนเสียงคำพูดจากการทำงานของสมองของเธอ จากนั้นจึงเปลี่ยนการแทนเหล่านั้นให้เป็นคำพูดจริง ๆ และด้วยเสียงของเธอเอง” เขากล่าว
นักวิจัยสามารถใช้ภาพวิดีโอจากงานแต่งงานของจอห์นสันที่ถ่ายก่อนที่เธอจะได้รับบาดเจ็บเพื่อสร้างโปรไฟล์เสียง
การเชื่อมต่อระหว่างสมองและคอมพิวเตอร์ทำงานอย่างไร
เพื่อให้จอห์นสันมีเสียงเสมือนจริง ทีมงานได้ฝังอิเล็กโทรดสี่เหลี่ยมบางเฉียบที่มีอิเล็กโทรด 253 ชิ้นไว้บนพื้นผิวสมองของเธอ เหนือบริเวณที่ก่อนหน้านี้ระบุว่ามีความสำคัญต่อการพูด อิเล็กโทรดดักจับสมองส่งสัญญาณว่า หากไม่ใช่เพราะโรคหลอดเลือดสมอง อาจไปเลี้ยงกล้ามเนื้อในริมฝีปาก ลิ้น กราม และกล่องเสียงของจอห์นสัน รวมถึงใบหน้าของเธอด้วย สัญญาณเหล่านี้ถูกส่งไปยังธนาคารคอมพิวเตอร์ผ่านสายเคเบิลที่เสียบเข้ากับพอร์ตที่ยึดติดกับศีรษะของเธอ
เป็นเวลาหลายสัปดาห์ที่นักวิจัยได้ฝึกฝนอัลกอริธึมปัญญาประดิษฐ์ของระบบเพื่อจดจำสัญญาณสมองเฉพาะของจอห์นสันสำหรับคำพูด ซึ่งเกี่ยวข้องกับการพูดซ้ำวลีต่างๆ จากคำศัพท์การสนทนา 1,024 คำ จนกระทั่งคอมพิวเตอร์จดจำรูปแบบการทำงานของสมองที่เกี่ยวข้องกับเสียงพูดพื้นฐานทั้งหมด
อวตารดิจิทัลสามารถแสดงความรู้สึก เช่น ความสุข ความเศร้า หรือความประหลาดใจได้
ในที่สุด Johnson ก็สามารถเลือกใบหน้าให้เป็นอวตารดิจิทัลของเธอได้ เมื่อเธอพยายามพูดอย่างเงียบๆ โมเดล AI จะเปลี่ยนการทำงานของสมองเพื่อทำให้อวตารเคลื่อนไหวด้วยคำพูดของจอห์นสัน เสียงจำลอง และจับคู่การแสดงออกที่เหมาะสมสำหรับความสุข ความเศร้า หรือความประหลาดใจ
โปรดทราบว่าจอห์นสันต้องพยายามพูดคำนั้น โมเสสกล่าว “เธอไม่สามารถคิดแค่ประโยคได้ จริงๆ แล้วเธอต้องพยายามบันทึกไว้เพื่อให้สัญญาณถูกแปลและอวตารจะพูดได้ เรารับสัญญาณจากเยื่อหุ้มสมองสั่งการ (Speech Motor Cortex) ซึ่งเป็นพื้นที่ของสมองที่ปกติส่งคำสั่งลงสู่ระบบเสียงของเราไปยังริมฝีปากหรือลิ้นของเรา หรือกราม หรือกล่องเสียง สำหรับคนเช่นคุณและฉัน มันจะประสานระบบเสียงของเราอย่างแม่นยำมากเพื่อให้เราสามารถพูดได้” เขากล่าว
ด้วยการแตะไปที่บริเวณสมอง นักวิจัยสามารถหลีกเลี่ยงอาการบาดเจ็บที่ก้านสมองของเธอได้ และเพียงแค่ "มุ่งตรงไปที่เอาท์พุต" โมเสสอธิบาย
“การอ่านใจเป็น "ไซไฟ" และเจ๋งมาก แต่นี่ไม่ใช่อย่างนั้น บุคคลนั้นต้องพยายามพูด” เขากล่าว
อุปกรณ์ที่ปลูกฝังจะตรวจจับกิจกรรมของเซลล์ประสาทส่วนบุคคล
ในการศึกษาครั้งที่สอง ซึ่งตีพิมพ์ในวารสารNatureเมื่อวันที่ 23 สิงหาคมนักวิจัยจากมหาวิทยาลัยสแตนฟอร์ดได้ปลูกฝังอิเล็กโทรดที่เป็นส่วนหนึ่งของ BCI ที่อยู่ลึกลงไปในสมอง เพื่อตรวจจับการทำงานของเซลล์ประสาทแต่ละตัวในแพ็ต เบนเน็ตต์ วัย 68 ปี
ในปี 2012 อดีตผู้อำนวยการฝ่ายทรัพยากรบุคคลและนักขี่ม้าครั้งหนึ่งได้รับการวินิจฉัยว่าเป็นโรคamyotrophic lateral sclerosis (ALS) ซึ่งเป็นโรคที่เกิดจากความเสื่อมของระบบประสาทที่ลุกลาม ซึ่งโจมตีเซลล์ประสาทที่ควบคุมการเคลื่อนไหว ทำให้เกิดความอ่อนแอทางร่างกายและเป็นอัมพาตในที่สุด
โดยปกติแล้ว ALS จะส่งผลต่อบริเวณรอบนอกของร่างกายเป็นอันดับแรก ได้แก่ แขน ขา มือ และนิ้ว สำหรับ Bennett การเสื่อมสภาพไม่ได้เริ่มต้นที่ไขสันหลังของเธอตามปกติ แต่เริ่มต้นที่ก้านสมองของเธอ ซึ่งหมายความว่าในขณะที่สมองของเธอยังคงสามารถกำหนดทิศทางในการสร้างหน่วยเสียงที่เรียกว่าหน่วยเสียงได้ แต่กล้ามเนื้อของเธอไม่สามารถทำตามคำสั่งได้
เมื่อฤดูใบไม้ผลิที่แล้ว ศัลยแพทย์ระบบประสาทของ Stanford Medicine ได้วางเซ็นเซอร์เล็กๆ สี่ตัวไว้ในบริเวณที่แยกจากกันสองแห่ง ซึ่งใช้ในการสร้างเสียงพูดตามพื้นผิวสมองของเบนเน็ตต์
ภายในเซ็นเซอร์เหล่านี้เป็นกลุ่มสี่เหลี่ยมจัตุรัสของอิเล็กโทรดซิลิคอนเล็กๆ ที่เจาะเข้าไปในเปลือกสมองได้ลึกประมาณเท่ากับของสองในสี่ที่ซ้อนกัน อิเล็กโทรดเหล่านั้นติดอยู่กับลวดทองคำเนื้อดีที่ไหลออกผ่านฐานที่ขันเข้ากับหัวกะโหลก จากนั้นจึงต่อด้วยสายเคเบิลเข้ากับคอมพิวเตอร์
 


ผู้ตั้งกระทู้ จัสมิน :: วันที่ลงประกาศ 2023-09-06 13:18:06


แสดงความคิดเห็น
ความคิดเห็น *
ผู้แสดงความคิดเห็น  *
อีเมล 
ไม่ต้องการให้แสดงอีเมล