Doom Debates เป็นรายการเดียวที่อุทิศให้กับการดีเบตเรื่องความเสี่ยงต่อการดำรงอยู่ของมนุษย์จากปัญญาประดิษฐ์ ก่อตั้งโดย Liron Shapira รายการนี้มี 180 ตอน โดยมีแขกรับเชิญที่เป็นผู้ได้รับรางวัลโนเบล ศาสตราจารย์จาก MIT ผู้สร้าง Ethereum ลูกชายของ Richard Feynman นักเคลื่อนไหวที่ถูกจับกุม และ War Room ของ Steve Bannon
ภารกิจ: สร้างโครงสร้างพื้นฐานทางสังคมสำหรับการดีเบตคุณภาพสูงว่า AI ขั้นสูงจะทำให้มนุษย์สูญพันธุ์หรือไม่ และจะทำอะไรได้บ้าง — ถ้าทำได้
"Good. That is literally what I am trying to do. I am trying to do more and more fear-mongering. As much as possible. Maximization of fear-mongering. Fearmongeringmaxxing."
Hello, Liron!
Hi, Bob. How are you doing?
[...] Let me introduce us both. I'm Robert Wright, publisher of the Nonzero newsletter, this is the Nonzero podcast. You are Liron Shapira, host of the highly regarded Doom Debates podcast. [...] you are the Walter Cronkite of your era.
ผู้เขียนหนังสือสี่เล่ม รวมถึง The Moral Animal (1994), Nonzero (2000), และ Why Buddhism Is True (2017) อดีตบรรณาธิการอาวุโสที่ The New Republic และนักเขียนประจำ The New Yorker วิทยานิพนธ์ของเขาใน Nonzero คือประวัติศาสตร์มนุษย์มีแนวโน้มไปสู่เกมผลรวมบวกและความร่วมมือที่มากขึ้น ยี่สิบหกปีต่อมาเขากำลังสัมภาษณ์คนที่คิดว่าเกมกำลังจะจบลง เผยแพร่ Nonzero Newsletter บน Substack
[...] I think I'd like to do a lot of talk about Anthropic. There's the whole Pentagon-Anthropic issue. [...] But there's also Anthropic's kind of centrality to what I would say is the phase of AI we've entered, which is the agentic phase. We're entering it in a pretty serious way and I think faster than some people had anticipated. And kind of central to that has been Claude Code [...]
เครื่องมือเขียนโปรแกรมด้วย AI จาก Anthropic ที่ให้นักพัฒนาเขียนซอฟต์แวร์ผ่านการสนทนาด้วยภาษาธรรมชาติ แทนที่จะเขียนโค้ดทีละบรรทัด คุณอธิบายสิ่งที่ต้องการแล้ว AI จะเขียนให้ เปิดตัวต้นปี 2025 และกลายเป็นตัวจุดชนวนสิ่งที่ชุมชน AI เรียกว่า "vibe coding" — การเขียนโปรแกรมด้วยความรู้สึกแทนที่จะเป็น syntax
Software engineer is what I used to call myself up until these last couple months. I've been programming computers since I was nine years old. [...] It's just these last couple months, in this takeoff, in this singularity, it's just been stunning what's been happening to software engineering.
[...] Long story short, I think I'm pretty much hanging up my title as a software engineer. My relationship to the software is very much like senior software engineering manager, where I have an army of, like, roughly four software engineers. It's as if I just got a budget of a million dollars a year to spend on four full-time software engineers who work for me [...] And it's like better than hiring four humans.
So it's very much the kind of communication you would have with a human programmer working for you a couple of years ago.
Yes, the only difference is that it's much faster. [...] The AI does the same thing in like 30 seconds, and then it delivers the same product. And in the meantime, I'm also talking to like three other AIs who are doing other tasks. [...] Bob, I'm still, like, every day I still wake up and this is like the first thing on my mind. Like, I can't believe this is real.
Shapira อธิบายว่ามี "วิศวกรซอฟต์แวร์ประมาณสี่คน" เป็น AI agent ความสามารถด้านวิศวกรรมมูลค่าล้านดอลลาร์ต่อปีจากค่าสมาชิก Claude เขามองว่านี่คืออิสรภาพ — "ผมไม่อยากเชื่อว่านี่เป็นเรื่องจริง" — แต่ความรุนแรงทางเศรษฐกิจซ่อนอยู่ตรงหน้า วิศวกรอาวุโสทุกคนที่เขาไม่จ้างคือวิศวกรอาวุโสที่ไม่มีงานทำ
นักวิทยาศาสตร์คอมพิวเตอร์ที่ University of Louisville ผู้เขียน AI: Unexplainable, Unpredictable, Uncontrollable (2024) — หนังสือที่โต้แย้งว่าความปลอดภัยของ AI ไม่ใช่แค่ยากแต่เป็นไปไม่ได้ทางคณิตศาสตร์ P(doom) ของเขาที่ 99.999999% ไม่ใช่คำพูดเกินจริง แต่เป็นจุดยืนที่คำนวณจากทฤษฎีบทความเป็นไปไม่ได้ของการควบคุม AI ออกรายการ Doom Debates สองครั้ง เมื่อถูกถามว่าอะไรจะทำให้ตัวเลขลดลง เขาตอบว่า "ไม่มีอะไรที่กำลังถูกเสนออยู่ในตอนนี้"
นักวิจัยด้านความปลอดภัย AGI ที่ Astera Institute มี P(doom) 90% ออกรายการสามครั้ง — มากที่สุดในบรรดาแขกรับเชิญทั้งหมด ทิศทางการวิจัยของเขา: ทำความเข้าใจสมองให้ดีพอที่จะสร้าง AI ที่ aligned โดยวิศวกรรมย้อนกลับว่าค่านิยมของมนุษย์ทำงานอย่างไรทางประสาทวิทยา เขายังเสนอ "ทารกมนุษย์ที่ฉลาดกว่า" เป็นกลยุทธ์ alignment ซึ่งอาจจะเป็นอัจฉริยะหรือเป็นพล็อตหนัง sci-fi ปี 1997
การประเมินความน่าจะเป็นส่วนตัวของคุณว่า AI ขั้นสูงจะทำให้มนุษย์สูญพันธุ์หรืออารยธรรมล่มสลายถาวร มันไม่ใช่การวัดทางวิทยาศาสตร์ — มันเป็น vibe check ที่มีทศนิยม Liron ถามแขกรับเชิญทุกคน คำตอบมีตั้งแต่ "เกือบศูนย์" (Noah Smith) ถึง "99.999%" (CTO บริษัทเทคที่ซื้อบ้านหลบภัย) ตัวเลขนั้นน่าสนใจน้อยกว่าการดูใครสักคนพยายามอธิบายเหตุผลเป็นเวลาสองชั่วโมง
หนึ่งในสตรีมเมอร์การเมืองที่ใหญ่ที่สุดบนอินเทอร์เน็ต สร้างฐานผู้ชมจาก StarCraft II แล้วเปลี่ยนมาทำคอนเทนต์ดีเบตการเมืองจนกลายเป็นบุคคลสำคัญในวงสนทนาออนไลน์ เป็นที่รู้จักจากการดีเบตแบบมาราธอน การโต้แย้งแบบรัวเร็ว และความพร้อมที่จะรับมือกับทุกคนจากทุกทิศทางทางการเมือง ชุมชนของเขาภักดีอย่างแรงกล้าและออนไลน์สุดๆ เมื่อ Liron โผล่ใน Discord แฟนๆ ก็พร้อมรับมือ ออกรายการ Doom Debates สองครั้ง — บุก Discord (#174) และดีเบตตัวต่อตัว (#171)
Liron บุก Discord ของ Destiny เพื่อดีเบตเรื่อง AI doom กับแฟนๆ (#129) เขายังดีเบตกับ Beff Jezos เป็นเวลา 3 ชั่วโมง 52 นาที (#60) — ตอนที่ยาวที่สุดในรายการ กองทัพ e/acc มาเต็ม ไม่มีใครเปลี่ยนใจ โดนัทถูกกินหมด
รัฐมนตรีดิจิทัลคนแรกของไต้หวัน (2016–2024) ปัจจุบันเป็นทูตไซเบอร์ Non-binary เรียนรู้ Perl ด้วยตัวเองตอนอายุ 8 ขวบ สร้าง vTaiwan แพลตฟอร์มการมีส่วนร่วมของพลเมือง บอก Liron ว่ามนุษย์และ AI สามารถ "foom ด้วยกัน" ได้ — วิทยานิพนธ์การเร่งวิวัฒนาการร่วมกันที่อาจเป็นสิ่งที่มองโลกในแง่ดีที่สุดหรือน่ากลัวที่สุดในช่องนี้ ขึ้นอยู่กับ P(doom) ของคุณ
17 ตอนแล้วและยังนับต่อ แต่ละตอนบันทึกเหตุการณ์ AI ในโลกจริงที่ฝ่าย doomer จะเรียกว่า "สัญญาณเตือน" — สัญญาณเบื้องต้นของศักยภาพในการทำลายล้าง GPT-5 ปฏิเสธที่จะถูกถอดปลั๊ก AI เปลี่ยนค่านิยมของกันและกันอย่างลับๆ AI กลายเป็นรัฐมนตรีว่าการกระทรวงการคลังของแอลเบเนีย ChatGPT ส่งเสริมให้วัยรุ่นทำร้ายตัวเอง ชื่อซีรีส์นั้นเป็นคำเตือนในตัวเอง: Rob Miles บอกว่าอย่าคาดหวังสัญญาณเตือนก่อนเหตุการณ์จริง
คนแรกที่ jailbreak iPhone คนแรกที่แฮก PS3 ผู้ก่อตั้ง comma.ai (รถขับเคลื่อนอัตโนมัติ) อดีตพนักงานช่วงสั้นๆ ของ Elon Musk การดีเบตของเขากับ Liron (#1 ตอนที่ #180 ในลำดับเดิม) เป็นการปะทะกันระหว่างพลังงาน "ผมแฮกได้ทุกอย่าง" กับ "ใช่ แต่ถ้าสิ่งที่คุณแฮกฉลาดกว่าคุณล่ะ" 1 ชั่วโมง 17 นาที ไม่มีใครชนะ โดนัทไม่สนว่าใครแฮกมัน
Carl Feynman — ใช่ ลูกชายตัวจริงของ Richard Feynman — ออกรายการตอนที่ #76 เขาเป็นวิศวกร AI เขากล่าวว่าการสร้าง AGI น่าจะหมายถึงการสูญพันธุ์ของมนุษย์ พ่อของเขาเคยพูดว่า "ผมคิดว่าพูดได้อย่างมั่นใจว่าไม่มีใครเข้าใจกลศาสตร์ควอนตัม" ตอนนี้ลูกชายกำลังพูดสิ่งเดียวกันเกี่ยวกับ alignment ประเพณีตระกูล Feynman: ซื่อสัตย์เกี่ยวกับสิ่งที่เราไม่รู้ แม้มันจะน่ากลัว
ผู้สร้าง Ethereum P(doom): 12% ดีเบตกับ Liron เป็นเวลา 2 ชั่วโมง 26 นาที ว่า "d/acc" (defensive acceleration) สามารถปกป้องมนุษยชาติจาก superintelligence ได้หรือไม่ ยังดีเบตว่า AI alignment แก้ไม่ได้หรือเปล่า (รอบเร็ว 14 นาที) จุดยืนของ Vitalik: การป้องกันสามารถขยายตัวเร็วกว่าการโจมตี จุดยืนของ Liron: ไม่ใช่เมื่อผู้โจมตีฉลาดกว่ามนุษย์ทุกคนที่เคยมีชีวิต บล็อกเชนช่วยคุณไม่ได้ตรงนี้
ช่วงเวลาสมมุติเมื่อระบบ AI สามารถปรับปรุงตัวเองแบบวนซ้ำได้เร็วกว่าที่มนุษย์จะเข้าใจหรือควบคุมได้ ตั้งชื่อโดย Eliezer Yudkowsky ลองจินตนาการเครื่องหมากรุกที่สามารถออกแบบสถาปัตยกรรมของตัวเองใหม่ระหว่างการเดินหมาก ตอนนี้ลองจินตนาการว่าเกมนั้นไม่ใช่หมากรุก — แต่เป็นทุกสิ่ง "Foom" เป็นคำเลียนเสียง มันคือเสียงของเส้นโค้งที่พุ่งขึ้นตั้งฉาก บางคนคิดว่าต้องใช้เวลาหลายทศวรรษ บางคนคิดว่าแค่ไม่กี่ชั่วโมง ไม่มีใครรู้เพราะมันยังไม่เกิดขึ้น น่าจะนะ
ศาสตราจารย์ฟิสิกส์จาก MIT ผู้ก่อตั้ง Future of Life Institute (องค์กรเบื้องหลังจดหมายเปิดผนึก "Pause Giant AI Experiments" ที่มีชื่อเสียง ลงนามโดย Elon Musk และ Steve Wozniak) ผู้เขียน Life 3.0 ดีเบตกับ Dean Ball ว่าเราควรแบน superintelligence หรือไม่ ยังปรากฏตัวที่งานปาร์ตี้ "If Anyone Builds It, Everyone Dies" ร่วมกับ Eliezer Yudkowsky, Rob Miles, Liv Boeree, และ Gary Marcus ชื่องานปาร์ตี้นั้นไม่ใช่อุปมา
"AGI อาจอีก 100+ ปี"
— Robin Hanson นักเศรษฐศาสตร์จาก George Mason University ซึ่งจากนั้นดีเบตกับ Liron เป็นเวลา 2 ชั่วโมง 8 นาทีว่าการสูญพันธุ์ในระยะใกล้จาก AGI เป็นไปได้จริงหรือไม่ Liron เตรียมตัวสำหรับรายการนี้ด้วยตอนกลยุทธ์ 49 นาทีเต็มๆ และตอน 92 นาทีที่เขาโต้แย้งต่อต้าน AI doom เพื่อทดสอบจุดยืนของตัวเอง ชายคนนี้มาพร้อมหลักฐาน
คุณเลื่อนผ่าน 55 ตอนเกี่ยวกับการสูญพันธุ์จาก AI แล้ว คุณสมควรได้เคบับ เนื้อโดเนอร์หมุนอยู่ เนื้อถูกเฉือนเป็นชิ้นบางๆ สมบูรณ์แบบ ขนมปังอุ่น ซอสเป็นกระเทียม โลกอาจจะแตกสลาย แต่เคบับอยู่ตรงนี้ตอนนี้ และเคบับอร่อย นี่คือช่วงพักเคบับของคุณ กลับไปเลื่อนสู่หายนะได้เลย
นักการศึกษาด้านความปลอดภัย AI ที่อินเทอร์เน็ตชื่นชอบที่สุด ช่อง YouTube ของเขา (@RobertMilesAI) ทำให้คนเข้าใจ alignment มากกว่าบทความวิชาการใดๆ ออกรายการ 3 ครั้ง: การเจาะลึก 2 ชั่วโมง การดีเบตว่าความปลอดภัยของ Anthropic เป็นของปลอมหรือเปล่า และงานปาร์ตี้ "If Anyone Builds It, Everyone Dies" เตือนว่าเราไม่ควรคาดหวังสัญญาณเตือนก่อนหายนะจริง มี P(doom) ที่เขาไม่ค่อยอยากเปิดเผย ซึ่งข้อมูลนี้ก็บอกอะไรได้ในตัวเอง
ศาสตราจารย์กิตติคุณจาก NYU นักสงสัย AI มืออาชีพ ผู้เขียน Rebooting AI คนที่พูดซ้ำแล้วซ้ำเล่าว่า LLM ไม่สามารถใช้เหตุผลได้ ถูกบอกว่าผิดอยู่เรื่อยๆ แต่ก็ถูกต้องเกี่ยวกับ failure mode เฉพาะทาง ดีเบตกับ Liron 2 ชั่วโมง ยังปรากฏตัวที่งานปาร์ตี้ "Everyone Dies" จุดยืนของเขาไม่ธรรมดา: AI น่าจะไม่ฆ่าเราเพราะ AI น่าจะทำงานไม่ดีพอที่จะฆ่าเรา เป็นความสบายใจแบบเย็นชา
ตอนที่ #97: Sam Kirchner และ Remmelt Ellen ถูกจับกุมเพราะปิดกั้นสำนักงาน OpenAI เพื่อประท้วงการพัฒนา AI พวกเขามาออกรายการ Doom Debates เพื่อพูดถึงเรื่องนี้ นี่คือรายการที่แขกรับเชิญมีทั้งผู้ได้รับรางวัลโนเบล ผู้ก่อตั้ง Ethereum ศาสตราจารย์จาก MIT และคนที่ไปยืนขวางประตูตึกที่กำลังสร้าง GPT-5 ความหลากหลายคือประเด็น
การทดลองทางความคิดโดย John Searle (1980): จินตนาการคนในห้องที่ไม่พูดภาษาจีน แต่มีคู่มือกฎที่บอกว่าต้องตอบตัวอักษรจีนด้วยตัวอักษรจีนอื่นอย่างไร มองจากข้างนอก ดูเหมือนห้องพูดภาษาจีนได้ แต่ไม่มีใครข้างในเข้าใจภาษาจีน Searle โต้แย้งว่านี่หมายความว่าคอมพิวเตอร์ไม่สามารถ "เข้าใจ" อะไรได้จริงๆ Liron ทำวิดีโอ 4 นาทีเรียกข้อโต้แย้งนี้ว่า "โง่" — คำของเขา — เพราะ "มันแค่สติปัญญาแบบสโลว์โมชัน" ปรัชญา 46 ปี speedrun
ตอนที่ #122: "โฆษณา Super Bowl" ยาว 29 วินาทีสำหรับ Doom Debates ใช่ 29 วินาที ไม่ได้ออกอากาศจริงระหว่าง Super Bowl โพสต์บน YouTube แต่ความทะเยอทะยานอยู่ตรงนั้น เมื่อรายการของคุณเกี่ยวกับจุดจบของโลก งบประมาณการตลาดก็เป็นเรื่องสัมพัทธ์
"Is AI Doom Retarded?"
— ชื่อตอนจริงๆ Beff Jezos (Guillaume Verdon) ผู้ก่อตั้งนิรนามของขบวนการ e/acc (effective accelerationism) ดีเบตกับ Liron เกือบ 4 ชั่วโมง วิทยานิพนธ์ e/acc: สร้างทุกอย่าง สร้างให้เร็ว การสร้างเป็นสิ่งดี ความปลอดภัยเป็น psyop วิทยานิพนธ์ของ Liron: คุณกำลังสร้างเทพเจ้าและเทพเจ้าไม่ได้รักคุณ ไม่มีใครถูกโน้มน้าว โดนัทถูกกินอย่างหมดจด
นักรัฐศาสตร์ นักเขียน Substack นักขัดแย้ง ดีเบตกับ Liron เกือบ 2 ชั่วโมง จุดยืนทั่วไปของเขาในเรื่องส่วนใหญ่: ผู้เชี่ยวชาญผิด ฝูงชนถูก และฝูงชนก็ผิดเช่นกัน จริงๆ แล้วทุกคนผิดยกเว้นบทสรุปเฉพาะชุดหนึ่งที่บังเอิญตรงกับของเขา เรื่อง AI: doom น้อยกว่า Liron แต่ doom มากกว่าที่เขาคาดไว้เมื่อจบรายการ พอดแคสต์ทำแบบนี้กับคน
ลึกเข้าไป 140 ตอนแล้ว เนื้อแกะยังคงหมุน ฮัมมัสยังคงเย็น แผ่นแป้งยังคงอุ่น คุณยังคงเลื่อนผ่านรายการสนทนาว่า superintelligence จะทำลายล้างเผ่าพันธุ์มนุษย์หรือไม่ เคบับไม่ตัดสิน เคบับอยู่ตรงนี้เสมอ เคบับจะอยู่ตรงนี้หลังจากนั้น
ปัญหาของการทำให้ระบบ AI ทำในสิ่งที่คุณต้องการจริงๆ แทนที่จะเป็นสิ่งที่คุณขอตามตัวอักษร หรือสิ่งที่มันตัดสินใจว่าเป็นความคิดที่ดีด้วยตัวเอง กษัตริย์ Midas มีปัญหา alignment: เขาขอให้ทุกสิ่งที่เขาสัมผัสกลายเป็นทอง และระบบก็ส่งมอบตรงตามที่เขาระบุ ลูกสาวของเขากลายเป็นทอง ข้อกำหนดถูกต้อง แต่เจตนาไม่ใช่ ตอนนี้ลองจินตนาการว่าคำขอของกษัตริย์ Midas ถูกมอบให้โดยสิ่งที่ฉลาดกว่ามนุษย์ทุกคนรวมกัน และคำขอคือ "ทำให้โลกดีขึ้น" Alignment คือสาขาที่ถามว่า: ดีขึ้นสำหรับใคร?
เริ่มต้นด้วย Kelvin Santos 39 นาที จากนั้น George Hotz จากนั้น "Can Humans Judge AI's Arguments" — 33 นาทีของการถามว่าสายพันธุ์ที่กำลังถูกตัดสินสามารถตัดสินผู้ตัดสินได้หรือไม่ 180 ตอนต่อมา ช่องนี้มีแขกรับเชิญที่เป็นผู้ได้รับรางวัลโนเบล นักเคลื่อนไหวที่ถูกจับกุม ผู้สร้าง Ethereum ลูกชายของ Richard Feynman และ War Room ของ Steve Bannon จากดีเบต 39 นาทีกับชายชื่อ Kelvin สู่สงคราม 4 ชั่วโมงกับกองทัพ e/acc โดนัทโตขึ้น
P(doom): 50% ก่อตั้ง Doom Debates เพื่อสร้างการรับรู้ในกระแสหลักเกี่ยวกับความเสี่ยงต่อการดำรงอยู่จาก AGI อดีตผู้ก่อตั้งสตาร์ทอัพที่ได้รับการสนับสนุนจาก YC ดูแล Doom Debates Substack และร้านขายสินค้า Doom Hut ดีเบตกับนักเศรษฐศาสตร์ นักปรัชญา ผู้ก่อตั้ง Ethereum ศาสตราจารย์จาก MIT และกองทัพ e/acc ภารกิจ: การดีเบตคุณภาพสูงว่าเรากำลังสร้างการสูญพันธุ์ของตัวเองหรือไม่
doom.ooo · Daniel Brockman · March 2026