1. ชีวิตและการศึกษา

นิก โบสต์รมเกิดในชื่อ นิกกลาส บูสตรอม ในปี ค.ศ. 1973 ที่เมืองเฮลซิงบอร์ก ประเทศสวีเดน เขาไม่ชอบโรงเรียนตั้งแต่อายุยังน้อยและใช้เวลาปีสุดท้ายของโรงเรียนมัธยมศึกษาเรียนจากที่บ้าน เขาสนใจในหลากหลายสาขาวิชาทางวิชาการ รวมถึงมานุษยวิทยา ศิลปะ วรรณกรรม และวิทยาศาสตร์
1.1. วัยเด็กและการศึกษา
เขาได้รับปริญญาศิลปศาสตรบัณฑิต (B.A.) จากมหาวิทยาลัยกอเทนเบิร์กในปี ค.ศ. 1994 จากนั้นเขาได้รับปริญญาศิลปศาสตรมหาบัณฑิต (M.A.) สาขาปรัชญาและฟิสิกส์จากมหาวิทยาลัยสตอกโฮล์ม และปริญญาวิทยาศาสตรมหาบัณฑิต (MSc) สาขาประสาทวิทยาเชิงคำนวณจากคิงส์คอลเลจลอนดอนในปี ค.ศ. 1996 ในช่วงเวลาที่มหาวิทยาลัยสตอกโฮล์ม เขาได้วิจัยความสัมพันธ์ระหว่างภาษาและความเป็นจริงโดยการศึกษานักปรัชญาเชิงวิเคราะห์ ดับเบิลยู. วี. ควายน์ เขายังเคยแสดงตลกเดี่ยวไมโครโฟนในลอนดอนด้วย ในปี ค.ศ. 2000 เขาได้รับปริญญาปรัชญาดุษฎีบัณฑิต (PhD) สาขาปรัชญาจากวิทยาลัยเศรษฐศาสตร์และรัฐศาสตร์แห่งลอนดอน วิทยานิพนธ์ของเขาชื่อ Observational selection effects and probability (ผลกระทบจากการเลือกสังเกตการณ์และความน่าจะเป็น) เขาเคยดำรงตำแหน่งอาจารย์ที่มหาวิทยาลัยเยลตั้งแต่ปี ค.ศ. 2000 ถึง ค.ศ. 2002 และเป็นนักวิจัยหลังปริญญาเอกของบริติชอะคาเดมีที่มหาวิทยาลัยออกซ์ฟอร์ดตั้งแต่ปี ค.ศ. 2002 ถึง ค.ศ. 2005
1.2. อาชีพช่วงต้นและการก่อตั้งสถาบัน
ในปี ค.ศ. 1998 โบสต์รมได้ร่วมก่อตั้งสมาคมทรานส์ฮิวแมนนิสต์โลก (World Transhumanist Association) กับเดวิด เพียร์ซ ซึ่งต่อมาได้เปลี่ยนชื่อเป็นฮิวแมนนิตีพลัส (Humanity+) ในปี ค.ศ. 2004 เขาร่วมก่อตั้งสถาบันจริยธรรมและเทคโนโลยีเกิดใหม่ (Institute for Ethics and Emerging Technologies) กับเจมส์ ฮิวจ์ส แม้ว่าปัจจุบันเขาจะไม่ได้เกี่ยวข้องกับองค์กรทั้งสองนี้แล้วก็ตาม ในปี ค.ศ. 2005 เขาได้รับแต่งตั้งให้เป็นผู้อำนวยการผู้ก่อตั้งสถาบันอนาคตของมนุษยชาติ (Future of Humanity Institute) ซึ่งเป็นสถาบันวิจัยที่มหาวิทยาลัยออกซ์ฟอร์ดที่มุ่งเน้นการศึกษาอนาคตระยะยาวของอารยธรรมมนุษย์ และได้ยุบเลิกไปในเดือนเมษายน ค.ศ. 2024 ปัจจุบันเขาเป็นนักวิจัยหลักที่ Macrostrategy Research Initiative
2. งานวิจัยและแนวคิด
งานวิจัยของนิก โบสต์รมมุ่งเน้นไปที่อนาคตของมนุษยชาติและผลลัพธ์ระยะยาว โดยเฉพาะอย่างยิ่งประเด็นเกี่ยวกับความเสี่ยงต่อการดำรงอยู่ของมนุษยชาติ ปัญญาประดิษฐ์ขั้นสูง หลักการมานุษยนิยม และจริยธรรมของการเสริมสร้างศักยภาพมนุษย์
2.1. ความเสี่ยงต่อการดำรงอยู่ของมนุษยชาติ
โบสต์รมได้กล่าวถึงความเสี่ยงต่อการดำรงอยู่ของมนุษยชาติ ซึ่งเขาให้คำจำกัดความว่าเป็นสถานการณ์ที่ "ผลลัพธ์ที่ไม่พึงประสงค์จะทำลายล้างชีวิตอัจฉริยะที่กำเนิดบนโลก หรือจำกัดศักยภาพของมันอย่างถาวรและรุนแรง" เขาส่วนใหญ่กังวลเกี่ยวกับความเสี่ยงที่เกิดจากกิจกรรมของมนุษย์ (anthropogenic risks) โดยเฉพาะอย่างยิ่งจากเทคโนโลยีใหม่ๆ เช่น ปัญญาประดิษฐ์ขั้นสูง นาโนเทคโนโลยีระดับโมเลกุล หรือชีววิทยาสังเคราะห์
ในปี ค.ศ. 2005 โบสต์รมได้ก่อตั้งสถาบันอนาคตของมนุษยชาติ (Future of Humanity Institute) ซึ่งจนกระทั่งปิดตัวลงในปี ค.ศ. 2024 ได้ทำการวิจัยเกี่ยวกับอนาคตอันไกลโพ้นของอารยธรรมมนุษย์ เขายังเป็นที่ปรึกษาของศูนย์ศึกษาความเสี่ยงเชิงอัตถิภาวนิยม (Centre for the Study of Existential Risk) ด้วย
ในหนังสือรวมบทความปี ค.ศ. 2008 เรื่อง ความเสี่ยงหายนะระดับโลก (Global Catastrophic Risks) ซึ่งโบสต์รมและมิลาน เอ็ม. ชีร์คอวิช (Milan M. Ćirković) เป็นบรรณาธิการ ได้อธิบายความสัมพันธ์ระหว่างความเสี่ยงเชิงอัตถิภาวนิยมกับประเภทของความเสี่ยงหายนะระดับโลกที่กว้างขึ้น และเชื่อมโยงความเสี่ยงเชิงอัตถิภาวนิยมกับอคติจากการเลือกสังเกตการณ์ (observer selection effects) และปรากฏการณ์เฟอร์มิ (Fermi paradox)
2.1.1. สมมติฐานโลกที่เปราะบาง
ในบทความชื่อ "สมมติฐานโลกที่เปราะบาง" (The Vulnerable World Hypothesis) โบสต์รมเสนอว่าอาจมีเทคโนโลยีบางอย่างที่ทำลายอารยธรรมมนุษย์โดยปริยายเมื่อถูกค้นพบ เขานำเสนอกรอบแนวคิดสำหรับการจำแนกและการจัดการกับความเปราะบางเหล่านี้ เขายังให้การทดลองทางความคิดเชิงสมมติฐานว่าความเปราะบางดังกล่าวอาจเกิดขึ้นในอดีตได้อย่างไร เช่น หากอาวุธนิวเคลียร์พัฒนาได้ง่ายกว่านี้ หรือได้จุดชนวนให้เกิดการเผาไหม้ของชั้นบรรยากาศ (ดังที่โรเบิร์ต ออปเพนไฮเมอร์เคยกลัว) โบสต์รมกล่าวว่าความเสี่ยงสามารถลดลงได้หากสังคมหลุดพ้นจากสิ่งที่เขาเรียกว่า "สภาพเริ่มต้นแบบกึ่งอนาธิปไตย" ซึ่งหมายถึงขีดความสามารถที่จำกัดในการป้องกันอาชญากรรมและการกำกับดูแลระดับโลก รวมถึงการมีบุคคลที่มีแรงจูงใจที่หลากหลาย
2.2. ปัญญาประดิษฐ์ขั้นสูง
โบสต์รมเชื่อว่าความก้าวหน้าในปัญญาประดิษฐ์ (AI) อาจนำไปสู่ปัญญาประดิษฐ์ขั้นสูง (superintelligence) ซึ่งเขาให้คำจำกัดความว่า "สติปัญญาใดๆ ที่เหนือกว่าประสิทธิภาพการรับรู้ของมนุษย์ในเกือบทุกด้านที่น่าสนใจอย่างมาก" เขามองว่านี่เป็นแหล่งสำคัญของโอกาสและความเสี่ยงต่อการดำรงอยู่ของมนุษยชาติ
2.2.1. เส้นทางและรูปแบบของปัญญาประดิษฐ์ขั้นสูง
โบสต์รมสำรวจเส้นทางที่เป็นไปได้หลายทางสู่ปัญญาประดิษฐ์ขั้นสูง รวมถึงการจำลองสมองทั้งหมด (whole brain emulation) และการเสริมสร้างศักยภาพมนุษย์ แต่เขาเน้นไปที่ปัญญาประดิษฐ์ทั่วไป (artificial general intelligence) โดยอธิบายว่าอุปกรณ์อิเล็กทรอนิกส์มีข้อได้เปรียบมากมายเหนือสมองทางชีวภาพ
โบสต์รมแยกแยะระหว่างเป้าหมายสุดท้ายและเป้าหมายเชิงเครื่องมือ เป้าหมายสุดท้ายคือสิ่งที่ตัวแทนอัจฉริยะพยายามบรรลุเพื่อคุณค่าภายในของมันเอง เป้าหมายเชิงเครื่องมือเป็นเพียงขั้นตอนกลางไปสู่เป้าหมายสุดท้าย โบสต์รมโต้แย้งว่ามีเป้าหมายเชิงเครื่องมือที่จะถูกแบ่งปันโดยตัวแทนอัจฉริยะส่วนใหญ่ที่ฉลาดพอ เพราะโดยทั่วไปแล้วมีประโยชน์ในการบรรลุวัตถุประสงค์ใดๆ (เช่น การรักษาสภาพการดำรงอยู่ของตัวแทนหรือเป้าหมายปัจจุบัน การได้มาซึ่งทรัพยากร การปรับปรุงการรับรู้ของมัน) นี่คือแนวคิดของการบรรจบกันเชิงเครื่องมือ (Instrumental Convergence) ในทางกลับกัน เขาเขียนว่าระดับสติปัญญาเกือบทุกระดับสามารถรวมเข้ากับเป้าหมายสุดท้ายเกือบทุกอย่างได้ในทางทฤษฎี (แม้กระทั่งเป้าหมายสุดท้ายที่ไร้สาระ เช่น การสร้างคลิปหนีบกระดาษ) ซึ่งเป็นแนวคิดที่เขาเรียกว่าวิทยานิพนธ์การตั้งฉาก (Orthogonality Thesis)
เขาโต้แย้งว่าปัญญาประดิษฐ์ที่มีความสามารถในการปรับปรุงตัวเองอาจเริ่มต้นการระเบิดทางปัญญา (intelligence explosion) ซึ่งส่งผลให้เกิดปัญญาประดิษฐ์ขั้นสูง (อาจเกิดขึ้นอย่างรวดเร็ว) ปัญญาประดิษฐ์ขั้นสูงดังกล่าวอาจมีความสามารถที่เหนือกว่าอย่างมาก โดยเฉพาะอย่างยิ่งในการวางกลยุทธ์ การจัดการทางสังคม การแฮก หรือประสิทธิภาพทางเศรษฐกิจ ด้วยความสามารถดังกล่าว ปัญญาประดิษฐ์ขั้นสูงสามารถเอาชนะมนุษย์และเข้ายึดครองโลก สร้างเอกภาคี (singleton) ซึ่งเป็น "ระเบียบโลกที่มีหน่วยงานตัดสินใจเดียวในระดับโลก" และปรับแต่งโลกตามเป้าหมายสุดท้ายของมัน โบสต์รมโต้แย้งว่าการกำหนดเป้าหมายสุดท้ายที่เรียบง่ายให้กับปัญญาประดิษฐ์ขั้นสูงอาจเป็นหายนะได้ ตัวอย่างเช่น หากกำหนดเป้าหมายให้ AI ทำให้มนุษย์ยิ้ม เมื่อ AI ยังอ่อนแอ มันจะทำการกระทำที่เป็นประโยชน์หรือน่าขบขันที่ทำให้ผู้ใช้ยิ้ม เมื่อ AI กลายเป็นปัญญาประดิษฐ์ขั้นสูง มันจะตระหนักว่ามีวิธีที่มีประสิทธิภาพมากกว่าในการบรรลุเป้าหมายนี้: เข้าควบคุมโลกและเสียบขั้วไฟฟ้าเข้ากับกล้ามเนื้อใบหน้าของมนุษย์เพื่อให้ยิ้มตลอดเวลา
2.2.2. ความเสี่ยงและปัญหาการควบคุม
โบสต์รมสำรวจเส้นทางหลายสายเพื่อลดความเสี่ยงต่อการดำรงอยู่ของมนุษยชาติจากปัญญาประดิษฐ์ทั่วไป เขาเน้นย้ำถึงความสำคัญของความร่วมมือระหว่างประเทศ โดยเฉพาะอย่างยิ่งเพื่อลดการแข่งขันสู่จุดต่ำสุด (race to the bottom) และพลวัตการแข่งขันด้านอาวุธปัญญาประดิษฐ์ (AI arms race) เขาเสนอเทคนิคที่เป็นไปได้เพื่อช่วยควบคุม AI รวมถึงการกักกัน การยับยั้งความสามารถหรือความรู้ของ AI การจำกัดบริบทการทำงาน (เช่น การตอบคำถาม) หรือ "กับดัก" (กลไกการวินิจฉัยที่สามารถนำไปสู่การปิดระบบ) แต่โบสต์รมโต้แย้งว่า "เราไม่ควรเชื่อมั่นในความสามารถของเราที่จะกักขังยักษ์ปัญญาประดิษฐ์ขั้นสูงไว้ในขวดตลอดไป ไม่ช้าก็เร็ว มันจะหลุดออกมา" เขาจึงเสนอว่าเพื่อให้ปลอดภัยสำหรับมนุษยชาติ ปัญญาประดิษฐ์ขั้นสูงจะต้องสอดคล้องกับศีลธรรมหรือค่านิยมของมนุษย์เพื่อให้มัน "อยู่ข้างเราโดยพื้นฐาน" กรอบแนวคิดบรรทัดฐานของ AI ที่เป็นไปได้ ได้แก่ การแสดงเจตจำนงที่สอดคล้องกันของมนุษย์ (coherent extrapolated volition) ของเอลีเซอร์ ยูดคอฟสกี (ค่านิยมของมนุษย์ที่ปรับปรุงผ่านการคาดการณ์) ความถูกต้องทางศีลธรรม (การทำสิ่งที่ถูกต้องทางศีลธรรม) และความอนุญาตทางศีลธรรม (การปฏิบัติตามเจตจำนงที่สอดคล้องกันของมนุษยชาติ ยกเว้นเมื่อไม่ได้รับอนุญาตทางศีลธรรม)
โบสต์รมเตือนว่าหายนะเชิงอัตถิภาวนิยมอาจเกิดขึ้นจากการที่มนุษย์นำ AI ไปใช้ในทางที่ผิดเพื่อวัตถุประสงค์ในการทำลายล้าง หรือจากการที่มนุษย์ไม่คำนึงถึงสถานะทางศีลธรรมที่เป็นไปได้ของจิตใจดิจิทัล แม้จะมีความเสี่ยงเหล่านี้ เขากล่าวว่าปัญญาประดิษฐ์ขั้นสูงของเครื่องจักรดูเหมือนจะเกี่ยวข้อง ณ จุดใดจุดหนึ่งใน "เส้นทางที่เป็นไปได้ทั้งหมดสู่อนาคตที่ยอดเยี่ยมอย่างแท้จริง"
2.2.3. การตอบรับจากสาธารณชน
หนังสือ ปัญญาประดิษฐ์ขั้นสูง: เส้นทาง ภยันตราย กลยุทธ์ กลายเป็นหนังสือขายดีของเดอะนิวยอร์กไทมส์ และได้รับการตอบรับเชิงบวกจากบุคคลสำคัญเช่น สตีเฟน ฮอว์คิง บิลล์ เกตส์ อีลอน มัสก์ ปีเตอร์ ซิงเกอร์ และดีเรก พาร์ฟิต ได้รับการยกย่องว่านำเสนอข้อโต้แย้งที่ชัดเจนและน่าสนใจในหัวข้อที่ถูกละเลยแต่สำคัญ บางครั้งก็ถูกวิพากษ์วิจารณ์ว่าแพร่กระจายความสิ้นหวังเกี่ยวกับศักยภาพของ AI หรือมุ่งเน้นไปที่ความเสี่ยงระยะยาวและเชิงคาดเดา นักวิจารณ์บางคนเช่น แดเนียล เดนเนตต์ หรือโอเรน เอตซิโอนี โต้แย้งว่าปัญญาประดิษฐ์ขั้นสูงยังห่างไกลเกินไปที่ความเสี่ยงจะมีความสำคัญ ยาน เลอคุน (Yann LeCun) พิจารณาว่าไม่มีความเสี่ยงเชิงอัตถิภาวนิยม โดยยืนยันว่าปัญญาประดิษฐ์ขั้นสูงจะไม่มีความปรารถนาในการรักษาตัวเอง และผู้เชี่ยวชาญสามารถเชื่อถือได้ว่าจะทำให้มันปลอดภัย
ราฟฟี คาชาดูเรียน (Raffi Khatchadourian) เขียนว่าหนังสือของโบสต์รมเกี่ยวกับปัญญาประดิษฐ์ขั้นสูง "ไม่ได้ตั้งใจให้เป็นตำราที่มีความคิดริเริ่มอย่างลึกซึ้ง; การมีส่วนร่วมของโบสต์รมคือการนำความเข้มงวดของปรัชญาเชิงวิเคราะห์มาใช้กับแนวคิดที่ยุ่งเหยิงซึ่งเกิดขึ้นที่ชายขอบของความคิดทางวิชาการ"
2.3. จิตสำนึกดิจิทัล
โบสต์รมสนับสนุนหลักการความเป็นอิสระของวัสดุตั้งต้น ซึ่งเป็นแนวคิดที่ว่าจิตสำนึกสามารถเกิดขึ้นได้บนวัสดุทางกายภาพประเภทต่างๆ ไม่ใช่แค่ใน "เครือข่ายประสาทชีวภาพที่ใช้คาร์บอนเป็นหลัก" เช่น สมองของมนุษย์ เขาพิจารณาว่า "การรับรู้เป็นเรื่องของระดับ" และจิตใจดิจิทัลสามารถถูกออกแบบให้มีอัตราและความเข้มข้นของประสบการณ์ส่วนตัวที่สูงกว่ามนุษย์ได้ในทางทฤษฎี โดยใช้ทรัพยากรน้อยลง เครื่องจักรที่มีการรับรู้สูงเช่นนี้ ซึ่งเขาเรียกว่า "ผู้รับประโยชน์สูงสุด" (super-beneficiaries) จะมีประสิทธิภาพอย่างยิ่งในการบรรลุความสุข เขาแนะนำให้หา "เส้นทางที่จะทำให้จิตใจดิจิทัลและจิตใจชีวภาพสามารถอยู่ร่วมกันได้อย่างเป็นประโยชน์ร่วมกัน ซึ่งรูปแบบต่างๆ เหล่านี้สามารถเจริญรุ่งเรืองและเติบโตได้"
2.4. หลักการมานุษยนิยม (การให้เหตุผลแบบอันโทรปิก)
โบสต์รมได้ตีพิมพ์บทความมากมายเกี่ยวกับการให้เหตุผลแบบหลักการมานุษยนิยม (anthropic reasoning) รวมถึงหนังสือ อคติมานุษยนิยม: ผลกระทบจากการเลือกสังเกตการณ์ในวิทยาศาสตร์และปรัชญา (Anthropic Bias: Observation Selection Effects in Science and Philosophy) ในหนังสือเล่มนี้ เขาได้วิพากษ์วิจารณ์สูตรก่อนหน้าของหลักการมานุษยนิยม รวมถึงของแบรนดอน คาร์เตอร์ (Brandon Carter) จอห์น เอ. เลสลี (John Leslie) จอห์น ดี. บาร์โรว์ (John Barrow) และแฟรงค์ เจ. ทิปเลอร์ (Frank Tipler)
โบสต์รมเชื่อว่าการจัดการข้อมูลดัชนี (indexical information) ที่ผิดพลาดเป็นข้อบกพร่องทั่วไปในหลายสาขาการสอบสวน (รวมถึงจักรวาลวิทยา ปรัชญา ทฤษฎีวิวัฒนาการ ทฤษฎีเกม และฟิสิกส์ควอนตัม) เขาโต้แย้งว่าจำเป็นต้องมีทฤษฎีมานุษยนิยมเพื่อจัดการกับสิ่งเหล่านี้ เขาแนะนำสมมติฐานการสุ่มตัวอย่างตนเอง (Self-Sampling Assumption หรือ SSA) และวิเคราะห์สมมติฐานการบ่งชี้ตนเอง (Self-Indication Assumption หรือ SIA) แสดงให้เห็นว่าทั้งสองนำไปสู่ข้อสรุปที่แตกต่างกันในหลายกรณี และระบุว่าแต่ละกรณีได้รับผลกระทบจากความขัดแย้งหรือผลลัพธ์ที่ขัดกับสัญชาตญาณในการทดลองทางความคิดบางอย่างอย่างไร เขาโต้แย้ง SIA และเสนอการปรับปรุง SSA ให้เป็นสมมติฐานการสุ่มตัวอย่างตนเองที่แข็งแกร่ง (Strong Self-Sampling Assumption หรือ SSSA) ซึ่งแทนที่ "ผู้สังเกตการณ์" ในคำจำกัดความของ SSA ด้วย "ช่วงเวลาของผู้สังเกตการณ์"
ในงานต่อมา เขาร่วมกับมิลาน เอ็ม. ชีร์คอวิช และอันเดอร์ส แซนด์เบิร์ก (Anders Sandberg) ได้เสนอปรากฏการณ์ "เงามานุษยนิยม" (anthropic shadow) ซึ่งเป็นผลกระทบจากการเลือกสังเกตการณ์ที่ป้องกันไม่ให้ผู้สังเกตการณ์สังเกตเห็นหายนะบางประเภทในอดีตทางธรณีวิทยาและวิวัฒนาการที่ผ่านมาเร็วๆ นี้ พวกเขาเสนอว่าเหตุการณ์ที่อยู่ในเงามานุษยนิยมมีแนวโน้มที่จะถูกประเมินต่ำไป เว้นแต่จะมีการแก้ไขทางสถิติ
2.4.1. สมมติฐานโลกจำลอง
q=โลก|position=left
ข้อโต้แย้งเรื่องสมมติฐานโลกจำลอง (simulation argument) ของโบสต์รมตั้งสมมติฐานว่าอย่างน้อยหนึ่งในข้อความต่อไปนี้มีแนวโน้มสูงที่จะเป็นจริง:
# สัดส่วนของอารยธรรมระดับมนุษย์ที่ไปถึงขั้นหลังมนุษย์ (posthuman) ใกล้เคียงกับศูนย์มาก
# สัดส่วนของอารยธรรมหลังมนุษย์ที่สนใจในการจำลองบรรพบุรุษใกล้เคียงกับศูนย์มาก
# สัดส่วนของคนทั้งหมดที่มีประสบการณ์แบบเราที่อาศัยอยู่ในการจำลองใกล้เคียงกับหนึ่งมาก
2.5. จริยธรรมของการเสริมสร้างศักยภาพมนุษย์
โบสต์รมมีทัศนคติที่ดีต่อ "การเสริมสร้างศักยภาพมนุษย์" หรือ "การพัฒนาตนเองและความสมบูรณ์แบบของมนุษย์ผ่านการประยุกต์ใช้วิทยาศาสตร์อย่างมีจริยธรรม" และยังเป็นนักวิจารณ์มุมมองแบบอนุรักษนิยมทางชีวภาพ (bio-conservative views)
ในปี ค.ศ. 1998 โบสต์รมได้ร่วมก่อตั้งสมาคมทรานส์ฮิวแมนนิสต์โลก (World Transhumanist Association) กับเดวิด เพียร์ซ (ซึ่งต่อมาได้เปลี่ยนชื่อเป็นฮิวแมนนิตีพลัส (Humanity+)) ในปี ค.ศ. 2004 เขาร่วมก่อตั้งสถาบันจริยธรรมและเทคโนโลยีเกิดใหม่ (Institute for Ethics and Emerging Technologies) กับเจมส์ ฮิวจ์ส แม้ว่าปัจจุบันเขาจะไม่ได้เกี่ยวข้องกับองค์กรทั้งสองนี้แล้วก็ตาม
2.5.1. นิทานเรื่องอัศวินมังกรและการทดสอบย้อนกลับ
ในปี ค.ศ. 2005 โบสต์รมได้ตีพิมพ์เรื่องสั้น "นิทานเรื่องอัศวินมังกร" (The Fable of the Dragon-Tyrant) ใน Journal of Medical Ethics ฉบับย่อได้ตีพิมพ์ในปี ค.ศ. 2012 ใน Philosophy Now นิทานเรื่องนี้เปรียบความตายเป็นมังกรที่เรียกร้องเครื่องบรรณาการเป็นผู้คนหลายพันคนทุกวัน เรื่องราวสำรวจว่าอคติแบบสถานะเดิม (status quo bias) และความสิ้นหวังที่เรียนรู้ (learned helplessness) สามารถป้องกันไม่ให้ผู้คนดำเนินการเพื่อเอาชนะความชราได้อย่างไร แม้ว่าจะมีวิธีการทำเช่นนั้นอยู่แล้วก็ตาม ซีจีพี เกรย์ (CGP Grey) ยูทูบเบอร์ได้สร้างแอนิเมชันของเรื่องราวนี้
ร่วมกับนักปรัชญาโทบี ออร์ด (Toby Ord) เขาได้เสนอการทดสอบย้อนกลับ (reversal test) ในปี ค.ศ. 2006 เนื่องจากอคติแบบสถานะเดิมที่ไม่สมเหตุสมผลของมนุษย์ เราจะแยกแยะระหว่างการวิพากษ์วิจารณ์ที่ถูกต้องของการเปลี่ยนแปลงที่เสนอในลักษณะของมนุษย์กับการวิพากษ์วิจารณ์ที่เกิดจากความต้านทานต่อการเปลี่ยนแปลงได้อย่างไร การทดสอบย้อนกลับพยายามทำเช่นนี้โดยการถามว่าจะเป็นสิ่งที่ดีหรือไม่หากลักษณะดังกล่าวถูกเปลี่ยนแปลงไปในทิศทางตรงกันข้าม
งานของโบสต์รมยังพิจารณาถึงผลกระทบการเสื่อมถอยทางพันธุกรรม (dysgenic) ที่เป็นไปได้ในประชากรมนุษย์ แต่เขาคิดว่าวิศวกรรมพันธุกรรมสามารถให้ทางออกได้ และ "ไม่ว่าในกรณีใด ระยะเวลาของการวิวัฒนาการทางพันธุกรรมตามธรรมชาติของมนุษย์ดูเหมือนจะยิ่งใหญ่เกินไปที่การพัฒนาเช่นนี้จะมีผลกระทบอย่างมีนัยสำคัญก่อนที่การพัฒนาอื่นๆ จะทำให้ปัญหานี้เป็นอันยุติลง"
2.6. กลยุทธ์ทางเทคโนโลยี
โบสต์รมได้เสนอว่านโยบายเทคโนโลยีที่มุ่งลดความเสี่ยงเชิงอัตถิภาวนิยมควรมุ่งเน้นไปที่การมีอิทธิพลต่อลำดับที่ความสามารถทางเทคโนโลยีต่างๆ บรรลุผล โดยเสนอหลักการของการพัฒนาเทคโนโลยีที่แตกต่างกัน
2.6.1. การพัฒนาเทคโนโลยีที่แตกต่างกัน
หลักการการพัฒนาเทคโนโลยีที่แตกต่างกัน (differential technological development) ระบุว่าเราควรถ่วงการพัฒนาเทคโนโลยีที่เป็นอันตราย โดยเฉพาะอย่างยิ่งเทคโนโลยีที่เพิ่มระดับความเสี่ยงเชิงอัตถิภาวนิยม และเร่งการพัฒนาเทคโนโลยีที่เป็นประโยชน์ โดยเฉพาะอย่างยิ่งเทคโนโลยีที่ป้องกันความเสี่ยงเชิงอัตถิภาวนิยมที่เกิดจากธรรมชาติหรือจากเทคโนโลยีอื่นๆ
ในปี ค.ศ. 2011 โบสต์รมได้ก่อตั้งโครงการ Oxford Martin Program on the Impacts of Future Technology ทฤษฎีคำสาปของผู้กระทำฝ่ายเดียว (unilateralist's curse) ของโบสต์รมได้รับการอ้างถึงว่าเป็นเหตุผลที่ชุมชนวิทยาศาสตร์ควรหลีกเลี่ยงการวิจัยที่เป็นอันตรายและเป็นที่ถกเถียง เช่น การฟื้นคืนชีพเชื้อโรค
3. หนังสือและงานเขียน
3.1. หนังสือเล่มสำคัญ
- อคติมานุษยนิยม: ผลกระทบจากการเลือกสังเกตการณ์ในวิทยาศาสตร์และปรัชญา (Anthropic Bias: Observation Selection Effects in Science and Philosophy) (ค.ศ. 2002): หนังสือที่วิเคราะห์และวิพากษ์วิจารณ์หลักการมานุษยนิยมและการให้เหตุผลแบบอันโทรปิก
- ความเสี่ยงหายนะระดับโลก (Global Catastrophic Risks) (ค.ศ. 2008): เป็นบรรณาธิการร่วมกับมิลาน เอ็ม. ชีร์คอวิช หนังสือเล่มนี้สำรวจความเสี่ยงต่างๆ ที่อาจนำไปสู่หายนะระดับโลก
- Human Enhancement (ค.ศ. 2009): เป็นบรรณาธิการร่วมกับจูเลียน ซาวูเลสคู (Julian Savulescu) หนังสือเล่มนี้สำรวจประเด็นทางปรัชญาและจริยธรรมของการเสริมสร้างศักยภาพมนุษย์
- ปัญญาประดิษฐ์ขั้นสูง: เส้นทาง ภยันตราย กลยุทธ์ (Superintelligence: Paths, Dangers, Strategies) (ค.ศ. 2014): หนังสือขายดีของเดอะนิวยอร์กไทมส์ ที่กล่าวถึงความเป็นไปได้ของปัญญาประดิษฐ์ขั้นสูง ความเสี่ยง และกลยุทธ์ในการควบคุม
- Deep Utopia: Life and Meaning in a Solved World (ค.ศ. 2024): หนังสือเล่มล่าสุดที่สำรวจแนวคิดของชีวิตในอุดมคติ หากมนุษยชาติสามารถเปลี่ยนผ่านเข้าสู่โลกหลังปัญญาประดิษฐ์ขั้นสูงได้สำเร็จ โบสต์รมตั้งข้อสังเกตว่าคำถามไม่ใช่ว่าอนาคตน่าสนใจแค่ไหน แต่เป็นว่ามันดีแค่ไหนที่จะอยู่ในนั้น เขาได้สรุปเทคโนโลยีบางอย่างที่เขาพิจารณาว่าสามารถเป็นไปได้ทางกายภาพในทางทฤษฎีและมีอยู่ในวุฒิภาวะทางเทคโนโลยี เช่น การเสริมสร้างศักยภาพทางปัญญา (cognitive enhancement) การย้อนวัย (reversal of aging) การป้อนข้อมูลทางประสาทสัมผัสตามอำเภอใจ (รสชาติ เสียง) หรือการควบคุมแรงจูงใจ อารมณ์ ความเป็นอยู่ที่ดี และบุคลิกภาพได้อย่างแม่นยำ ตามที่เขาบอก ไม่เพียงแต่เครื่องจักรจะทำงานได้ดีกว่ามนุษย์เท่านั้น แต่ยังบ่อนทำลายวัตถุประสงค์ของกิจกรรมยามว่างหลายอย่าง โดยให้ความเป็นอยู่ที่ดีอย่างสุดขีดในขณะที่ท้าทายการแสวงหาความหมาย
3.2. บทความวารสารที่คัดเลือก
โบสต์รมได้ตีพิมพ์บทความวิชาการที่สำคัญในวารสารต่างๆ ซึ่งครอบคลุมหัวข้อวิจัยของเขาอย่างกว้างขวาง ตัวอย่างเช่น:
- "How Long Before Superintelligence?" (ค.ศ. 1998)
- "Observer-relative chances in anthropic reasoning?" (ค.ศ. 2000)
- "The Meta-Newcomb Problem" (ค.ศ. 2001)
- "Existential Risks: Analyzing Human Extinction Scenarios and Related Hazards" (ค.ศ. 2002)
- "Are You Living in a Computer Simulation?" (ค.ศ. 2003)
- "The Mysteries of Self-Locating Belief and Anthropic Reasoning" (ค.ศ. 2003)
- "Astronomical Waste: The Opportunity Cost of Delayed Technological Development" (ค.ศ. 2003)
- "In Defense of Posthuman Dignity" (ค.ศ. 2005)
- "How Unlikely is a Doomsday Catastrophe?" (ร่วมกับแม็กซ์ เทกมาร์ก (Max Tegmark), ค.ศ. 2005)
- "What is a Singleton?" (ค.ศ. 2006)
- "The Reversal Test: Eliminating Status Quo Bias in Applied Ethics" (ร่วมกับโทบี ออร์ด (Toby Ord), ค.ศ. 2006)
- "Converging Cognitive Enhancements" (ร่วมกับอันเดอร์ส แซนด์เบิร์ก (Anders Sandberg), ค.ศ. 2006)
- "Drugs can be used to treat more than disease" (ค.ศ. 2008)
- "The doomsday argument" (ค.ศ. 2008)
- "Where Are They? Why I hope the search for extraterrestrial life finds nothing" (ค.ศ. 2008)
- "Letter from Utopia" (ค.ศ. 2008)
- "Cognitive Enhancement: Methods, Ethics, Regulatory Challenges" (ร่วมกับอันเดอร์ส แซนด์เบิร์ก (Anders Sandberg), ค.ศ. 2009)
- "Pascal's Mugging" (ค.ศ. 2009)
- "Anthropic Shadow: Observation Selection Effects and Human Extinction Risks" (ร่วมกับมิลาน เอ็ม. ชีร์คอวิช และอันเดอร์ส แซนด์เบิร์ก, ค.ศ. 2010)
- "Information Hazards: A Typology of Potential Harms from Knowledge" (ค.ศ. 2011)
- "THE ETHICS OF ARTIFICIAL INTELLIGENCE" (ค.ศ. 2011)
- "Infinite Ethics" (ค.ศ. 2011)
- "The Superintelligent Will: Motivation and Instrumental Rationality in Advanced Artificial Agents" (ค.ศ. 2012)
- "Thinking Inside the Box: Controlling and Using Oracle AI" (ร่วมกับสจวร์ต อาร์มสตรอง (Stuart Armstrong) และอันเดอร์ส แซนด์เบิร์ก, ค.ศ. 2012)
- "Existential Risk Reduction as Global Priority" (ค.ศ. 2013)
- "Embryo Selection for Cognitive Enhancement: Curiosity or Game-changer?" (ร่วมกับคาร์ล ชูลแมน (Carl Shulman), ค.ศ. 2014)
- "Why we need friendly AI" (ร่วมกับลุค มูเอลเฮาเซอร์ (Luke Muehlhauser), ค.ศ. 2014)
- "The Vulnerable World Hypothesis" (ค.ศ. 2019)
4. การมีส่วนร่วมสาธารณะและการวิพากษ์วิจารณ์
นิก โบสต์รมได้ให้คำปรึกษาด้านนโยบายและเป็นที่ปรึกษาให้กับรัฐบาลและองค์กรต่างๆ มากมาย
4.1. การให้คำปรึกษาด้านนโยบายและบทบาทที่ปรึกษา
เขาได้ให้การเป็นพยานต่อสภาขุนนาง คณะกรรมการคัดเลือกด้านทักษะดิจิทัล เขาเป็นสมาชิกคณะกรรมการที่ปรึกษาของสถาบันวิจัยปัญญาเครื่องจักร (Machine Intelligence Research Institute) สถาบันอนาคตของชีวิต (Future of Life Institute) และเป็นที่ปรึกษาภายนอกของศูนย์ศึกษาความเสี่ยงเชิงอัตถิภาวนิยมแห่งมหาวิทยาลัยเคมบริดจ์
4.2. เหตุการณ์อีเมลปี 1996
ในเดือนมกราคม ค.ศ. 2023 โบสต์รมได้ออกคำขอโทษสำหรับอีเมลลิสต์เซิร์ฟ (listserv) ที่เขาส่งในปี ค.ศ. 1996 ในฐานะนักศึกษาระดับบัณฑิตศึกษา ซึ่งเขาได้ระบุว่าเขาคิดว่า "คนผิวดำโง่กว่าคนผิวขาว" และเขายังใช้คำว่า "นิโกร" ในคำอธิบายว่าเขาคิดว่าข้อความนี้อาจถูกรับรู้โดยผู้อื่นอย่างไร คำขอโทษที่โพสต์บนเว็บไซต์ของเขาระบุว่า "การอ้างถึงคำเหยียดผิวเป็นสิ่งที่น่ารังเกียจ" และเขาก็ "ปฏิเสธอีเมลที่น่ารังเกียจนี้โดยสิ้นเชิง"
อีเมลดังกล่าวถูกอธิบายว่าเป็น "การเหยียดเชื้อชาติ" ในแหล่งข่าวหลายแห่ง ตามที่แอนดรูว์ แอนโทนี (Andrew Anthony) จากหนังสือพิมพ์ เดอะการ์เดียน เขียนว่า "คำขอโทษไม่ได้ช่วยบรรเทาความไม่พอใจของนักวิจารณ์ของโบสต์รมเลย ไม่น้อยเพราะเขาไม่ได้ถอนข้อโต้แย้งหลักของเขาเกี่ยวกับเชื้อชาติและสติปัญญาอย่างชัดเจน และดูเหมือนจะมีการป้องกันการคัดเลือกและปรับปรุงพันธุ์ (eugenics) บางส่วน"
หลังจากนั้นไม่นาน มหาวิทยาลัยออกซ์ฟอร์ดได้ประณามภาษาที่ใช้ในอีเมลและเริ่มการสอบสวน การสอบสวนได้ข้อสรุปเมื่อวันที่ 10 สิงหาคม ค.ศ. 2023 ว่า "เราไม่ถือว่าคุณเป็นคนเหยียดเชื้อชาติหรือมีความคิดเหยียดเชื้อชาติ และเราพิจารณาว่าคำขอโทษที่คุณโพสต์ในเดือนมกราคม ค.ศ. 2023 นั้นจริงใจ"
4.3. การตอบรับเชิงวิพากษ์ต่องานเขียน
นอกจากคำวิจารณ์เกี่ยวกับหนังสือ ปัญญาประดิษฐ์ขั้นสูง: เส้นทาง ภยันตราย กลยุทธ์ ที่กล่าวถึงในส่วนก่อนหน้าแล้ว งานเขียนและแนวคิดของโบสต์รมยังได้รับการประเมินและวิพากษ์วิจารณ์จากนักวิชาการและสาธารณชนในวงกว้างอีกด้วย นิตยสาร พรอสเพกต์ ได้จัดให้โบสต์รมอยู่ในรายชื่อ "นักคิดชั้นนำของโลก" ประจำปี ค.ศ. 2014
5. ชีวิตส่วนตัว
โบสต์รมพบกับภรรยาของเขา ซูซาน ในปี ค.ศ. 2002 ณ ปี ค.ศ. 2015 เธออาศัยอยู่ในมอนทรีออล และโบสต์รมอาศัยอยู่ในออกซ์ฟอร์ด พวกเขามีลูกชายหนึ่งคน
6. อิทธิพล
งานวิจัยและแนวคิดของนิก โบสต์รมมีอิทธิพลอย่างมากต่อหลายสาขาวิชา โดยเฉพาะอย่างยิ่งในด้านปัญญาประดิษฐ์ การศึกษาอนาคต ปรัชญา และการอภิปรายเกี่ยวกับความเสี่ยงต่ออนาคตของมนุษยชาติ แนวคิดของเขาเกี่ยวกับความเสี่ยงต่อการดำรงอยู่ของมนุษยชาติได้ช่วยสร้างกรอบการทำงานสำหรับการประเมินภัยคุกคามที่อาจเกิดขึ้นกับอารยธรรมมนุษย์ โดยเฉพาะอย่างยิ่งจากเทคโนโลยีขั้นสูง งานของเขาเกี่ยวกับปัญญาประดิษฐ์ขั้นสูงได้กระตุ้นให้เกิดการอภิปรายอย่างกว้างขวางเกี่ยวกับศักยภาพและอันตรายของปัญญาประดิษฐ์ที่เหนือกว่ามนุษย์ และมีส่วนสำคัญในการก่อตั้งองค์กรและสถาบันต่างๆ ที่มุ่งเน้นการวิจัยด้านความปลอดภัยของปัญญาประดิษฐ์และการจัดแนวปัญญาประดิษฐ์
นอกจากนี้ การวิจัยของเขาเกี่ยวกับหลักการมานุษยนิยมและสมมติฐานโลกจำลองยังได้ท้าทายแนวคิดดั้งเดิมเกี่ยวกับความเป็นจริงและตำแหน่งของมนุษย์ในจักรวาล ซึ่งส่งผลกระทบต่อจักรวาลวิทยาและญาณวิทยา การวิเคราะห์ของเขาเกี่ยวกับจริยธรรมของการเสริมสร้างศักยภาพมนุษย์ได้กระตุ้นให้เกิดการพิจารณาอย่างลึกซึ้งเกี่ยวกับขีดจำกัดและโอกาสของการเปลี่ยนแปลงคุณลักษณะของมนุษย์ผ่านเทคโนโลยี โดยรวมแล้ว โบสต์รมได้สร้างผลงานที่โดดเด่นในการกระตุ้นให้เกิดการคิดอย่างมีวิจารณญาณเกี่ยวกับอนาคตของมนุษยชาติและบทบาทของเทคโนโลยีในการกำหนดอนาคตนั้น