Warum die Zukunft uns nicht braucht - Why The Future Doesn't Need Us

Warum die Zukunft uns nicht braucht “ ist ein Artikel von Bill Joy (damals Chief Scientist bei Sun Microsystems ) in der April-2000-Ausgabe des Magazins Wired . In dem Artikel, argumentiert er , dass „unsere leistungsfähigste des 21. Jahrhunderts TECHNOLOGIES- Robotik , Gentechnik und Nanotechnologie -sind bedrohen Menschen eine zu machen , vom Aussterben bedrohte Arten .“ Freude warnt:

Die Erfahrungen der Atomwissenschaftler zeigen deutlich die Notwendigkeit, Eigenverantwortung zu übernehmen, die Gefahr, dass es zu schnell geht und wie ein Prozess sich verselbstständigen kann. Wir können, wie sie es taten, in kürzester Zeit unüberwindbare Probleme schaffen. Wir müssen mehr im Voraus denken, wenn wir von den Folgen unserer Erfindungen nicht ähnlich überrascht und schockiert sind.

Während einige Kritiker Joys Haltung als Obskurantismus oder Neo-Luddismus bezeichnet haben , teilen andere seine Besorgnis über die Folgen der schnell wachsenden Technologie.

Zusammenfassung

Joy argumentiert, dass die Entwicklung von Technologien eine viel größere Gefahr für die Menschheit darstellt als jede Technologie zuvor. Er konzentriert sich insbesondere auf Ingenieurwissenschaften , Nanotechnologie und Robotik . Er argumentiert, dass Zerstörungstechnologien des 20. Jahrhunderts wie die Atombombe aufgrund der Komplexität und der Kosten solcher Geräte sowie der Schwierigkeit, die erforderlichen Materialien zu beschaffen, auf große Regierungen beschränkt waren. Er nutzt den Roman Die Weiße Pest als mögliches Albtraumszenario, in dem ein verrückter Wissenschaftler einen Virus erschafft, der die Menschheit auslöschen kann.

Joy äußert sich auch besorgt über die Erhöhung der Computerleistung. Seine Sorge ist, dass Computer irgendwann intelligenter werden als wir, was zu dystopischen Szenarien wie der Roboterrebellion führt . Zu diesem Thema zitiert er insbesondere Ted Kaczynski (der Unabomber ).

Joy äußert Bedenken, dass irgendwann die Reichen die einzigen sein werden, die die Macht haben, die zukünftigen Roboter zu kontrollieren, die gebaut werden, und dass diese Menschen auch beschließen könnten, das Leben selbst in die Hand zu nehmen und zu kontrollieren, wie Menschen weiterhin bevölkern und sich fortpflanzen. Er fing an, mehr über Robotik und Menschen, die sich auf Robotik spezialisiert haben , zu recherchieren , und außerhalb seiner eigenen Gedanken versuchte er, andere Meinungen zu diesem Thema einzuholen. Rodney Brooks , Spezialist für Robotik, glaubt, dass es in Zukunft zu einer Verschmelzung von Mensch und Roboter kommen wird. Joy erwähnte Hans Moravecs Buch "Robot: Mere Machine to Transcendent Mind", in dem er glaubte, dass es in Zukunft eine Verschiebung geben wird, in der Roboter normale menschliche Aktivitäten übernehmen werden, aber mit der Zeit werden die Menschen damit einverstanden sein, so zu leben.

Kritik

In The Singularity Is Near stellte Ray Kurzweil die Regulierung potenziell gefährlicher Technologien in Frage und fragte: "Sollten wir den Millionen von Menschen, die an Krebs und anderen verheerenden Erkrankungen leiden, sagen , dass wir die Entwicklung aller biotechnologisch hergestellten Behandlungen abbrechen, weil die Gefahr besteht, dass diese gleich sind? Technologien können eines Tages für böswillige Zwecke verwendet werden?". Doch John Zerzan und Chellis Glendinning glauben , dass moderne Technologien schlecht sind sowohl für die Freiheit und das Problem von Krebs, und dass die beiden Probleme verbunden sind.

In dem Artikel „A Response to Bill Joy and the Doom-and-Gloom Technofuturists“ des AAAS Science and Technology Policy Yearbook 2001 kritisierten John Seely Brown und Paul Duguid Joy dafür, dass sie einen technologischen Tunnelblick bei seiner Vorhersage habe, indem sie soziale Faktoren nicht berücksichtigte.

John McGinnis argumentiert, dass Joys Vorschlag zum „Verzicht“ von Technologien, die zu künstlicher allgemeiner Intelligenz (AGI) führen könnten, scheitern würde, weil „Verbote, zumindest unter der aktuellen Technologie und der aktuellen Geopolitik, mit Sicherheit wirkungslos sind“. Die Überprüfung von AGI-Beschränkungsvereinbarungen wäre aufgrund des Dual-Use- Charakters von AGI und der einfachen Versteckbarkeit schwierig . Ebenso glaubt er, dass Joys Vorschlag des „Hippokratischen Eids“ der freiwilligen Enthaltung von Wissenschaftlern von schädlicher Forschung ebenfalls nicht wirksam wäre, da Wissenschaftler von Regierungen unter Druck gesetzt, von Gewinnen versucht werden könnten, unsicher sind, welche Technologien später zu Schäden führen würden, oder sich dagegen wehren könnten zu Joys Prämisse an erster Stelle. Anstatt auf AGI zu verzichten, plädiert McGinnis für eine Art differenzielle technologische Entwicklung, bei der freundliche künstliche Intelligenz schneller vorangetrieben wird als andere Arten.

Der extropische Futurist Max More teilt Kurzweils Standpunkt in Bezug auf die unpraktische und ineffektive Natur des "technologischen Verzichts", fügt dem Argument jedoch eine größere moralische und philosophische Komponente hinzu und argumentiert, dass die Perfektion und Evolution der Menschheit nicht "unsere Menschlichkeit verlieren" würde und das eine freiwillig erbetene Kapazitätserhöhung in irgendeiner Domäne stellt nicht einmal einen "Verlust" dar.

In Zac Goldsmiths Artikel über das Interview mit Bill Joy zitiert er ihn dazu, dass manche Bedenken bei neuen Entwicklungstechnologien tatsächlich gefährlicher sind, als er in dem Artikel zum Ausdruck brachte, weil Goldsmith behauptet, dass die Entwickler dieser Maschinen ihnen zu viel Macht geben. Goldsmith erklärt seine Überzeugung, dass Wissenschaftler nicht an viele Dinge denken, die schief gehen können, wenn sie anfangen, Erfindungen zu machen, weil dies zu weniger Geldern führt.

In Sophie Tysoms Rezension zu Bill Joys Artikel sagt sie, Joy sollte nicht gleichmütig sein, wenn es um neuere Technologien geht, und sollte auch sehen, dass es einen "Kompromiss" zwischen ihm und diesen neuen Technologien geben könnte. Sie stimmt auch zu, dass er berechtigt ist, sich Sorgen darüber zu machen, was auf lange Sicht passieren wird, glaubt aber nicht, dass diese Technologien versuchen werden, uns in Zukunft zu kontrollieren. Joy antwortete darauf und sagte, dass es ihm gefiel, dass die Leute auf seinen Artikel reagierten, weil er ihnen einen Input zu diesem Thema gab.

Nachwirkungen

Nach der Veröffentlichung des Artikels schlug Bill Joy vor, Technologien zu bewerten, um ihre impliziten Gefahren abzuschätzen, sowie Wissenschaftler dazu zu bringen, sich weigern, an Technologien zu arbeiten, die potenziell Schaden anrichten können.

In der Ausgabe zum 15. Jubiläum von Wired im Jahr 2008 berichtete Lucas Graves' Artikel, dass die Genetik, Nanotechnologie und Robotik-Technologien nicht das Niveau erreicht haben, das Bill Joys Szenario wahr werden lassen würde.

Der bekannte konservative Kommentator Alex Jones zitierte den Artikel während einer Diskussion über die Auswirkungen des Transhumanismus mit den Komikern Joe Rogan und Tim Dillon in der Folge der Joe Rogan Experience vom 27. Oktober 2020.

Verweise

Weiterlesen

  • Messerly, John G. "Ich bin froh, dass die Zukunft uns nicht braucht: eine Kritik an Joys pessimistischem Futurismus." ACM SIGCAS Computers and Society , Band 33, Ausgabe 2, (Juni 2003) ISSN  0095-2737

Externe Links