Warum KI die Welt retten wird
HeimHeim > Nachricht > Warum KI die Welt retten wird

Warum KI die Welt retten wird

Jul 24, 2023

Die Ära der künstlichen Intelligenz ist da und die Leute flippen aus.

Glücklicherweise bin ich hier, um die gute Nachricht zu überbringen: KI wird die Welt nicht zerstören, sondern sie möglicherweise sogar retten.

Zunächst eine kurze Beschreibung dessen, was KI ist: Die Anwendung von Mathematik und Softwarecode, um Computern beizubringen, Wissen auf ähnliche Weise zu verstehen, zu synthetisieren und zu generieren, wie es Menschen tun. KI ist ein Computerprogramm wie jedes andere – es läuft, nimmt Eingaben entgegen, verarbeitet und generiert Ausgaben. Die Ergebnisse der KI sind in einem breiten Spektrum von Bereichen nützlich, von der Programmierung über die Medizin und das Recht bis hin zu den kreativen Künsten. Sie gehört den Menschen und wird von ihnen kontrolliert, wie jede andere Technologie auch.

Eine kürzere Beschreibung dessen, was KI nicht ist: Killersoftware und Roboter, die zum Leben erwachen und beschließen, die Menschheit zu ermorden oder auf andere Weise alles zu ruinieren, wie man es in den Filmen sieht.

Eine noch kürzere Beschreibung dessen, was KI sein könnte: Eine Möglichkeit, alles, was uns wichtig ist, besser zu machen.

Die am meisten validierte Kernschlussfolgerung der Sozialwissenschaften aus vielen Jahrzehnten und Tausenden von Studien ist, dass menschliche Intelligenz ein sehr breites Spektrum an Lebensergebnissen verbessert. Klügere Menschen erzielen in fast allen Tätigkeitsbereichen bessere Ergebnisse: akademische Leistungen, Arbeitsleistung, beruflicher Status, Einkommen, Kreativität, körperliche Gesundheit, Langlebigkeit, Erlernen neuer Fähigkeiten, Bewältigung komplexer Aufgaben, Führung, unternehmerischer Erfolg, Konfliktlösung, Leseverständnis, Finanzen Entscheidungsfindung, Verstehen der Perspektiven anderer, kreative Künste, Erziehungsergebnisse und Lebenszufriedenheit.

Darüber hinaus ist die menschliche Intelligenz der Hebel, den wir seit Jahrtausenden nutzen, um die Welt zu erschaffen, in der wir heute leben: Wissenschaft, Technologie, Mathematik, Physik, Chemie, Medizin, Energie, Bauwesen, Transport, Kommunikation, Kunst, Musik, Kultur, Philosophie, Ethik, Moral. Ohne den Einsatz von Intelligenz in all diesen Bereichen würden wir alle immer noch in Lehmhütten leben und uns eine dürftige Existenz in der Subsistenzlandwirtschaft erkämpfen. Stattdessen haben wir unsere Intelligenz genutzt, um unseren Lebensstandard in den letzten 4.000 Jahren um das Zehntausendfache zu steigern.

Was KI uns bietet, ist die Möglichkeit, die menschliche Intelligenz tiefgreifend zu erweitern, um all diese Ergebnisse der Intelligenz – und viele andere, von der Entwicklung neuer Medikamente über Wege zur Lösung des Klimawandels bis hin zu Technologien, um die Sterne zu erreichen – von hier aus viel, viel besser zu machen .

Die KI-Erweiterung der menschlichen Intelligenz hat bereits begonnen – KI ist bereits in Form von Computersteuerungssystemen vieler Art um uns herum, sie nimmt mit KI-Modellen für große Sprachen wie ChatGPT rasch zu und wird sich von hier aus sehr schnell beschleunigen – wenn wir es zulassen.

In unserer neuen Ära der KI:

Hier steht viel auf dem Spiel. Die Möglichkeiten sind tiefgreifend. KI ist möglicherweise das Wichtigste – und Beste –, was unsere Zivilisation je geschaffen hat, sicherlich auf Augenhöhe mit Elektrizität und Mikrochips und wahrscheinlich sogar darüber hinaus.

Die Entwicklung und Verbreitung von KI – alles andere als ein Risiko, das wir fürchten sollten – ist eine moralische Verpflichtung, die wir uns selbst, unseren Kindern und unserer Zukunft gegenüber haben.

Mit KI sollten wir in einer viel besseren Welt leben, und jetzt ist es möglich.

Im Gegensatz zu dieser positiven Sichtweise ist die öffentliche Diskussion über KI derzeit von hysterischer Angst und Paranoia geprägt.

Wir hören Behauptungen, dass KI uns alle töten, unsere Gesellschaft ruinieren, uns alle Arbeitsplätze wegnehmen, lähmende Ungleichheit verursachen und schlechten Menschen ermöglichen wird, schreckliche Dinge zu tun.

Was erklärt diese Divergenz in den möglichen Ergebnissen von einer Beinahe-Utopie bis hin zu einer schrecklichen Dystopie?

Historisch gesehen hat jede wichtige neue Technologie, von elektrischer Beleuchtung über Autos und Radio bis hin zum Internet, eine moralische Panik ausgelöst – eine soziale Ansteckung, die die Menschen davon überzeugt, dass die neue Technologie die Welt oder die Gesellschaft oder beides zerstören wird. Die großartigen Leute vom Pessimists Archive haben diese technologiegetriebenen moralischen Paniken über die Jahrzehnte dokumentiert; Ihre Geschichte macht das Muster deutlich. Es stellt sich heraus, dass diese gegenwärtige Panik nicht einmal die erste für die KI ist.

Nun ist es sicherlich so, dass viele neue Technologien zu schlechten Ergebnissen geführt haben – oft dieselben Technologien, die ansonsten enorm vorteilhaft für unser Wohlergehen waren. Es bedeutet also nicht, dass die bloße Existenz einer moralischen Panik bedeutet, dass es keinen Grund zur Sorge gibt.

Aber eine moralische Panik ist von Natur aus irrational – sie nimmt ein möglicherweise berechtigtes Anliegen und steigert es zu einem Maß an Hysterie, das es ironischerweise schwieriger macht, sich mit tatsächlich ernsten Bedenken auseinanderzusetzen.

Und wow, haben wir gerade eine ausgewachsene moralische Panik gegenüber KI?

Diese moralische Panik wird bereits von verschiedenen Akteuren als motivierende Kraft genutzt, um politisches Handeln zu fordern – neue KI-Beschränkungen, Vorschriften und Gesetze. Diese Akteure, die äußerst dramatische öffentliche Erklärungen zu den Gefahren der KI abgeben, moralische Panik ausnutzen und weiter schüren, präsentieren sich alle als selbstlose Verfechter des Gemeinwohls.

Aber sind sie es?

Und sind sie richtig oder falsch?

Ökonomen beobachten ein seit langem bestehendes Muster bei Reformbewegungen dieser Art. Die Akteure innerhalb solcher Bewegungen lassen sich in zwei Kategorien einteilen – „Baptisten“ und „Schmuggler“ – und berufen sich dabei auf das historische Beispiel des Alkoholverbots in den Vereinigten Staaten in den 1920er Jahren:

Ein Zyniker würde behaupten, dass einige der scheinbaren Baptisten auch Schmuggler sind – insbesondere diejenigen, die von ihren Universitäten, Denkfabriken, Aktivistengruppen und Medien dafür bezahlt werden, KI anzugreifen. Wenn Sie ein Gehalt erhalten oder Zuschüsse erhalten, um KI-Panik zu schüren, sind Sie wahrscheinlich ein Raubkopierer.

Das Problem mit den Bootleggers ist, dass sie gewinnen. Die Baptisten sind naive Ideologen, die Bootlegger sind zynische Akteure, und so ist das Ergebnis solcher Reformbewegungen oft, dass die Bootlegger bekommen, was sie wollen – Regulierungsübernahme, Abschottung vor der Konkurrenz, Bildung eines Kartells – und die Baptisten stehen im Sterben wo ihr Streben nach sozialer Verbesserung so schief ging.

Wir haben gerade ein beeindruckendes Beispiel dafür erlebt – die Bankenreform nach der globalen Finanzkrise 2008. Die Baptisten sagten uns, wir bräuchten neue Gesetze und Vorschriften, um die „too big to fail“-Banken zu zerschlagen und zu verhindern, dass sich eine solche Krise jemals wieder ereigne. Also verabschiedete der Kongress das Dodd-Frank-Gesetz von 2010, das als Erfüllung der Ziele der Baptisten vermarktet wurde, in Wirklichkeit aber von den Bootleggern – den Großbanken – übernommen wurde. Das Ergebnis ist, dass dieselben Banken, die 2008 „too big to fail“ waren, heute viel, viel größer sind.

In der Praxis werden die Baptisten also, selbst wenn sie echt sind – und selbst wenn sie Recht haben – von manipulativen und käuflichen Schmugglern als Deckmantel für ihren eigenen Vorteil genutzt.

Und genau das passiert derzeit im Streben nach KI-Regulierung.

Es reicht jedoch nicht aus, lediglich die Akteure zu identifizieren und ihre Motive zu hinterfragen. Wir sollten die Argumente sowohl der Baptisten als auch der Bootlegger auf ihre Begründetheit hin prüfen.

Das erste und ursprüngliche KI-Untergangsrisiko besteht darin, dass die KI beschließt, die Menschheit buchstäblich zu töten.

Die Angst, dass die von uns selbst geschaffene Technologie auftauchen und uns zerstören könnte, ist tief in unserer Kultur verankert. Die Griechen brachten diese Angst im Prometheus-Mythos zum Ausdruck – Prometheus brachte die zerstörerische Kraft des Feuers und allgemeiner der Technologie („Techne“) auf den Menschen, wofür Prometheus von den Göttern zu ewiger Folter verurteilt wurde. Später gab Mary Shelley uns Modernen in ihrem Roman „Frankenstein“ oder „Der moderne Prometheus“ eine eigene Version dieses Mythos, in dem wir die Technologie für das ewige Leben entwickeln, das dann aufsteigt und versucht, uns zu zerstören. Und natürlich ist kein KI-Panik-Zeitungsbericht vollständig ohne ein Standbild eines leuchtend rotäugigen Killerroboters aus James Camerons Terminator-Filmen.

Der vermutete evolutionäre Zweck dieser Mythologie besteht darin, uns zu motivieren, ernsthaft über potenzielle Risiken neuer Technologien nachzudenken – schließlich kann Feuer tatsächlich dazu verwendet werden, ganze Städte niederzubrennen. Aber so wie Feuer auch die Grundlage der modernen Zivilisation war, da es dazu diente, uns in einer kalten und feindseligen Welt warm und sicher zu halten, ignoriert diese Mythologie den weitaus größeren Vorteil der meisten – aller? – neue Technologien und entfacht in der Praxis eher destruktive Emotionen als eine begründete Analyse. Nur weil der vormoderne Mensch so ausgeflippt ist, heißt das nicht, dass wir das auch tun müssen; wir können stattdessen Rationalität anwenden.

Meiner Ansicht nach ist die Vorstellung, dass KI beschließen wird, die Menschheit buchstäblich zu töten, ein schwerwiegender Kategorienfehler. KI ist kein Lebewesen, das durch Milliarden von Jahren der Evolution darauf vorbereitet wurde, am Kampf um das Überleben des Stärksten teilzunehmen, wie es bei Tieren und bei uns der Fall ist. Es handelt sich um Mathe-Code-Computer, die von Menschen gebaut, von Menschen besessen, von Menschen genutzt, von Menschen kontrolliert werden. Die Vorstellung, dass es irgendwann einen eigenen Verstand entwickeln und entscheiden wird, dass es Beweggründe hat, die es dazu veranlassen, zu versuchen, uns zu töten, ist eine abergläubische Handbewegung.

Kurz gesagt, die KI will nicht, sie hat keine Ziele, sie will dich nicht töten, weil sie nicht lebt. Und KI ist eine Maschine – sie wird genauso wenig zum Leben erwachen wie Ihr Toaster.

Nun gibt es offensichtlich echte Anhänger der Killer-KI – Baptisten –, die mit ihren erschreckenden Warnungen plötzlich eine gigantische Medienberichterstattung erreichen. Einige von ihnen behaupten, dass sie sich seit Jahrzehnten mit dem Thema beschäftigen und sagen, dass sie jetzt Angst vor ihrem Tod haben Geist durch das, was sie gelernt haben. Einige dieser wahren Gläubigen sind sogar echte Innovatoren der Technologie. Diese Akteure plädieren für eine Reihe bizarrer und extremer Einschränkungen der KI, die von einem Verbot der KI-Entwicklung bis hin zu militärischen Luftangriffen auf Rechenzentren und einem Atomkrieg reichen. Sie argumentieren, dass wir, weil Menschen wie ich künftige katastrophale Folgen der KI nicht ausschließen können, eine vorsorgliche Haltung einnehmen müssen, die möglicherweise große Mengen körperlicher Gewalt und Tod erfordert, um potenzielle existenzielle Risiken abzuwenden.

Meine Antwort ist, dass ihre Position nicht wissenschaftlich ist – Was ist die überprüfbare Hypothese? Was würde die Hypothese verfälschen? Woher wissen wir, wann wir in eine Gefahrenzone geraten? Diese Fragen bleiben größtenteils unbeantwortet, abgesehen von „Man kann nicht beweisen, dass es nicht passieren wird!“ Tatsächlich ist die Position dieser Baptisten so unwissenschaftlich und so extrem – eine Verschwörungstheorie über Mathematik und Code – und ruft bereits zu körperlicher Gewalt auf, dass ich etwas tun werde, was ich normalerweise nicht tun würde, und auch ihre Motive in Frage stelle.

Im Einzelnen denke ich, dass drei Dinge im Gange sind:

Erinnern Sie sich zunächst daran, dass John von Neumann auf Robert Oppenheimers berühmtes Händeringen über seine Rolle bei der Entwicklung von Atomwaffen – die dazu beitrug, den Zweiten Weltkrieg zu beenden und den Dritten Weltkrieg zu verhindern – mit den Worten reagierte: „Manche Menschen gestehen ihre Schuld, um die Schuld für die Sünde einzufordern.“ Was ist die dramatischste Art und Weise, wie man Anerkennung für die Bedeutung der eigenen Arbeit einfordern kann, ohne dabei übertrieben prahlerisch zu klingen? Dies erklärt das Missverhältnis zwischen den Worten und Taten der Baptisten, die tatsächlich KI aufbauen und finanzieren – achten Sie auf ihre Taten, nicht auf ihre Worte. (Truman wurde nach dem Treffen mit Oppenheimer härter: „Lassen Sie diese Heulsuse nicht noch einmal hier rein.“)

Zweitens sind einige der Baptisten tatsächlich Schwarzhändler. Es gibt einen ganzen Beruf „KI-Sicherheitsexperte“, „KI-Ethiker“, „KI-Risikoforscher“. Sie werden dafür bezahlt, Untergangsverderber zu sein, und ihre Aussagen sollten angemessen verarbeitet werden.

Drittens ist Kalifornien zu Recht berühmt für seine vielen tausend Kulte, von EST bis zum Peoples Temple, von Heaven's Gate bis zur Manson Family. Viele dieser Kulte, wenn auch nicht alle, sind harmlos und erfüllen möglicherweise sogar einen Zweck für entfremdete Menschen, die in ihnen ein Zuhause finden. Aber einige sind tatsächlich sehr gefährlich, und Sekten haben es bekanntermaßen schwer, die Grenze zu überschreiten, die letztendlich zu Gewalt und Tod führt.

Und die Realität, die für jeden in der Bay Area offensichtlich ist, aber wahrscheinlich nicht außerhalb, ist, dass sich „KI-Risiko“ zu einem Kult entwickelt hat, der plötzlich ans Tageslicht der globalen Presseaufmerksamkeit und der öffentlichen Diskussion gerückt ist. Dieser Kult hat nicht nur Randfiguren, sondern auch einige echte Branchenexperten und eine nicht geringe Anzahl wohlhabender Spender angezogen – darunter bis vor Kurzem auch Sam Bankman-Fried. Und es hat sich ein ganzes Spektrum sektiererischer Verhaltensweisen und Überzeugungen entwickelt.

Dieser Kult ist der Grund dafür, dass es eine Reihe von KI-Risiko-Doomern gibt, die so extrem klingen – es liegt nicht daran, dass sie tatsächlich über geheimes Wissen verfügen, das ihren Extremismus logisch macht, sondern daran, dass sie sich selbst in Raserei versetzt haben und wirklich … extrem extrem sind.

Es stellt sich heraus, dass diese Art von Kult nicht neu ist – es gibt eine lange westliche Tradition des Millenarismus, die Apokalypse-Kulte hervorbringt. Der KI-Risikokult weist alle Merkmale eines tausendjährigen Apokalypsekultes auf. Aus Wikipedia, mit Ergänzungen von mir:

„Millenarismus ist der Glaube einer Gruppe oder Bewegung [KI-Risikoverderber] an eine bevorstehende grundlegende Transformation der Gesellschaft [die Ankunft der KI], nach der sich alles ändern wird [KI-Utopie, Dystopie und/oder das Ende der Welt] . Nur dramatische Ereignisse [KI-Verbote, Luftangriffe auf Rechenzentren, Atomangriffe auf unregulierte KI] werden als geeignet angesehen, die Welt zu verändern [KI zu verhindern], und es wird erwartet, dass die Veränderung von einer Gruppe gläubiger und gläubiger Menschen herbeigeführt oder überlebt wird gewidmet. In den meisten Jahrtausendszenarien wird auf die kommende Katastrophe oder Schlacht [KI-Apokalypse oder deren Verhinderung] eine neue, gereinigte Welt [KI-Verbote] folgen, in der die Gläubigen belohnt werden [oder zumindest als richtig anerkannt werden die ganze Zeit]."

Dieses Apokalypse-Kultmuster ist so offensichtlich, dass ich überrascht bin, dass es nicht noch mehr Menschen erkennen.

Verstehen Sie mich nicht falsch, es macht Spaß, von Sekten zu hören, ihr geschriebenes Material ist oft kreativ und faszinierend und ihre Mitglieder engagieren sich auf Dinnerpartys und im Fernsehen. Aber ihre extremen Überzeugungen sollten nicht die Zukunft von Gesetzen und Gesellschaft bestimmen – offensichtlich nicht.

Das zweite weithin diskutierte KI-Risiko besteht darin, dass KI unsere Gesellschaft ruinieren wird, indem sie Ergebnisse erzeugt, die so „schädlich“ sind, um die Nomenklatur dieser Art von Doomer zu verwenden, dass sie der Menschheit schweren Schaden zufügen, auch wenn wir es nicht wörtlich nehmen getötet.

Kurzfassung: Wenn die Mordroboter uns nicht erwischen, werden es die Hassreden und Fehlinformationen tun.

Hierbei handelt es sich um ein relativ junges Untergangsproblem, das von der oben beschriebenen „KI-Risiko“-Bewegung abzweigte und diese in gewisser Weise übernahm. Tatsächlich hat sich die Terminologie des KI-Risikos kürzlich von „KI-Sicherheit“ – dem Begriff, der von Menschen verwendet wird, die befürchten, dass KI uns buchstäblich umbringen würde – zu „KI-Ausrichtung“ – dem Begriff, der von Menschen verwendet wird, die sich Sorgen über gesellschaftliche „Schäden“ machen, geändert. . Die ursprünglichen KI-Sicherheitsexperten sind über diesen Wandel frustriert, wissen aber nicht, wie sie ihn wieder in den Griff bekommen sollen – sie plädieren nun dafür, das eigentliche KI-Risikothema in „AI notkilleveryoneism“ umzubenennen, was aber noch nicht weit verbreitet ist ist zumindest klar.

Der Hinweis auf die Natur der KI-Behauptung zum gesellschaftlichen Risiko ist der eigene Begriff „KI-Ausrichtung“. Ausrichtung womit? Menschliche Werte. Wessen menschliche Werte? Ah, da wird es schwierig.

Zufällig habe ich in einer ähnlichen Situation in der ersten Reihe gesessen – den „Vertrauens- und Sicherheitskriegen“ in den sozialen Medien. Wie mittlerweile offensichtlich ist, stehen Social-Media-Dienste seit vielen Jahren unter massivem Druck von Regierungen und Aktivisten, ein breites Spektrum an Inhalten zu verbieten, einzuschränken, zu zensieren und auf andere Weise zu unterdrücken. Und die gleichen Bedenken hinsichtlich „Hassrede“ (und ihrem mathematischen Gegenstück, „algorithmische Voreingenommenheit“) und „Fehlinformationen“ werden direkt aus dem Social-Media-Kontext auf die neue Grenze der „KI-Ausrichtung“ übertragen.

Meine großen Erkenntnisse aus den Social-Media-Kriegen sind:

Einerseits gibt es keine absolutistische Position der freien Meinungsäußerung. Erstens macht jedes Land, einschließlich der Vereinigten Staaten, zumindest einige Inhalte illegal. Zweitens gibt es bestimmte Arten von Inhalten, wie Kinderpornografie und Aufrufe zu Gewalt in der realen Welt, die in praktisch jeder Gesellschaft als tabu gelten – ob legal oder nicht. Daher unterliegt jede technologische Plattform, die Inhalte – Sprache – ermöglicht oder generiert, einigen Einschränkungen.

Andererseits ist der „Slippery Slope“ kein Trugschluss, sondern eine Zwangsläufigkeit. Sobald ein Rahmen für die Einschränkung selbst äußerst schrecklicher Inhalte vorhanden ist – zum Beispiel für Hassrede, ein bestimmtes verletzendes Wort oder für Fehlinformationen, offensichtlich falsche Behauptungen wie „Der Papst ist tot“ –, entsteht ein erschreckend breites Spektrum an Regierungsbehörden und Aktivistendruck Gruppen und Nichtregierungsorganisationen werden einen Gang einlegen und ein immer höheres Maß an Zensur und Unterdrückung aller Äußerungen fordern, die sie als Bedrohung für die Gesellschaft und/oder ihre eigenen persönlichen Vorlieben betrachten. Sie werden dies bis hin zu einer Art und Weise tun, die eindeutig ein Verbrechen darstellt. In der Praxis kann dieser Zyklus scheinbar ewig dauern, mit der enthusiastischen Unterstützung autoritärer Hallenwächter, die überall in unseren elitären Machtstrukturen installiert sind. Dies breitet sich seit einem Jahrzehnt in den sozialen Medien aus und wird mit wenigen Ausnahmen immer heftiger.

Und das ist nun die Dynamik, die sich rund um die „KI-Ausrichtung“ gebildet hat. Ihre Befürworter behaupten, es sei klug, KI-generierte Sprache und Gedanken zu konstruieren, die gut für die Gesellschaft sind, und KI-generierte Sprache und Gedanken zu verbieten, die schlecht für die Gesellschaft sind. Ihre Gegner behaupten, die Gedankenpolizei sei atemberaubend arrogant und anmaßend – und oft geradezu kriminell, zumindest in den USA – und strebe in Wirklichkeit danach, eine neue Art von autoritärer Sprachdiktatur aus Regierung, Wirtschaft und Wissenschaft zu werden, die direkt aus den Seiten gerissen wurde George Orwells 1984.

Da sich die Befürworter von „Vertrauen und Sicherheit“ und „KI-Ausrichtung“ in dem sehr schmalen Teil der Weltbevölkerung zusammenballen, der die amerikanischen Küsteneliten charakterisiert – zu denen viele der Menschen gehören, die in der Technologiebranche arbeiten und über sie schreiben – viele Viele meiner Leser werden feststellen, dass dramatische Einschränkungen der KI-Leistung erforderlich sind, um eine Zerstörung der Gesellschaft zu verhindern. Ich werde jetzt nicht versuchen, Ihnen das auszureden, sondern nur sagen, dass dies in der Natur der Forderung liegt und dass die meisten Menschen auf der Welt weder Ihrer Ideologie zustimmen noch Sie gewinnen sehen wollen.

Wenn Sie nicht mit der vorherrschenden Nischenmoral einverstanden sind, die sowohl den sozialen Medien als auch der KI durch immer intensivere Sprachcodes aufgezwungen wird, sollten Sie sich auch darüber im Klaren sein, dass der Kampf darüber, was KI sagen/generieren darf, noch wichtiger sein wird – um einiges – als der Kampf um die Zensur in den sozialen Medien. KI ist höchstwahrscheinlich die Kontrollebene für alles auf der Welt. Die Art und Weise, wie es funktionieren darf, wird vielleicht wichtiger sein als alles andere, was jemals zählt. Sie sollten sich darüber im Klaren sein, wie eine kleine und isolierte Gruppe parteiischer Sozialingenieure derzeit versucht, dies herauszufinden, unter dem Deckmantel der uralten Behauptung, sie würden Sie beschützen.

Kurz gesagt: Lassen Sie nicht zu, dass die Gedankenpolizei die KI unterdrückt.

Die Angst vor dem Verlust von Arbeitsplätzen aufgrund von Mechanisierung, Automatisierung, Computerisierung oder KI ist seit Hunderten von Jahren, seit der Einführung von Maschinen wie dem mechanischen Webstuhl, eine immer wiederkehrende Panik. Auch wenn im Laufe der Geschichte jede neue große Technologie zu mehr Arbeitsplätzen bei höheren Löhnen geführt hat, wird jede Welle dieser Panik von Behauptungen begleitet, dass „dieses Mal anders ist“ – dies ist die Zeit, in der es endlich passieren wird, dies ist die Technologie, die es endlich tun wird der menschlichen Arbeit den Hammerschlag versetzen. Und doch passiert es nie.

Wir haben in der jüngsten Vergangenheit zwei solcher technologiegetriebenen Arbeitslosigkeits-Panikzyklen durchgemacht – die Outsourcing-Panik der 2000er Jahre und die Automatisierungs-Panik der 2010er Jahre. Obwohl viele Redner, Experten und sogar Führungskräfte der Technologiebranche in beiden Jahrzehnten darauf hingewiesen haben, dass die Massenarbeitslosigkeit nahe sei, gab es Ende 2019 – kurz vor dem Ausbruch von COVID – mehr Arbeitsplätze mit höheren Löhnen als je zuvor in der Geschichte.

Dennoch wird diese falsche Idee nicht sterben.

Und tatsächlich ist es wieder da.

Dieses Mal haben wir endlich die Technologie, die alle Jobs übernimmt und menschliche Arbeitskräfte überflüssig macht – echte KI. Sicherlich wird sich die Geschichte dieses Mal nicht wiederholen, und KI wird Massenarbeitslosigkeit verursachen – und nicht ein schnelles Wirtschafts-, Beschäftigungs- und Lohnwachstum – oder?

Nein, das wird nicht passieren – und tatsächlich könnte die KI, wenn sie sich in der gesamten Wirtschaft entwickeln und verbreiten darf, den dramatischsten und nachhaltigsten Wirtschaftsboom aller Zeiten auslösen, mit entsprechend rekordverdächtigen Beschäftigungs- und Lohnzuwächsen – das genaue Gegenteil der Befürchtungen . Und hier ist der Grund.

Der Hauptfehler, den die „Automatisierung tötet Arbeitsplätze“-Doomer immer wieder machen, wird „Lump Of Labor Fallacy“ genannt. Bei diesem Trugschluss handelt es sich um die falsche Vorstellung, dass es in der Wirtschaft zu jedem Zeitpunkt eine festgelegte Menge an Arbeit gibt, die entweder von Maschinen oder von Menschen erledigt werden muss – und dass es, wenn Maschinen dies tun, für die Menschen keine Arbeit gibt .

Der „Lump of Labor“-Irrtum ergibt sich natürlich aus naiver Intuition, aber naive Intuition ist hier falsch. Wenn Technologie auf die Produktion angewendet wird, erzielen wir ein Produktivitätswachstum – eine Steigerung des Outputs, die durch eine Reduzierung des Inputs entsteht. Die Folge sind niedrigere Preise für Waren und Dienstleistungen. Wenn die Preise für Waren und Dienstleistungen sinken, zahlen wir weniger dafür, was bedeutet, dass wir nun über mehr Kaufkraft verfügen, mit der wir andere Dinge kaufen können. Dadurch erhöht sich die Nachfrage in der Wirtschaft, was die Schaffung neuer Produktion – einschließlich neuer Produkte und neuer Industrien – vorantreibt, was dann neue Arbeitsplätze für die Menschen schafft, die in früheren Arbeitsplätzen durch Maschinen ersetzt wurden. Das Ergebnis ist eine größere Wirtschaft mit höherem materiellen Wohlstand, mehr Industrien, mehr Produkten und mehr Arbeitsplätzen.

Aber die guten Nachrichten hören hier nicht auf. Wir bekommen auch höhere Löhne. Dies liegt daran, dass der Markt auf der Ebene des einzelnen Arbeitnehmers die Vergütung als Funktion der Grenzproduktivität des Arbeitnehmers festlegt. Ein Mitarbeiter in einem technologieorientierten Unternehmen wird produktiver sein als ein Mitarbeiter in einem traditionellen Unternehmen. Entweder wird der Arbeitgeber diesem Arbeitnehmer mehr Geld zahlen, da er jetzt produktiver ist, oder ein anderer Arbeitgeber wird dies aus reinem Eigeninteresse tun. Das Ergebnis ist, dass in einer Branche eingeführte Technologie im Allgemeinen nicht nur die Zahl der Arbeitsplätze in der Branche erhöht, sondern auch die Löhne erhöht.

Zusammenfassend lässt sich sagen, dass Technologie es den Menschen ermöglicht, produktiver zu sein. Dies führt dazu, dass die Preise für bestehende Güter und Dienstleistungen sinken und die Löhne steigen. Dies führt wiederum zu Wirtschaftswachstum und Beschäftigungswachstum und fördert gleichzeitig die Schaffung neuer Arbeitsplätze und neuer Industrien. Wenn eine Marktwirtschaft normal funktionieren darf und die Einführung von Technologie frei erlaubt ist, handelt es sich um einen ewigen Aufwärtszyklus, der niemals endet. Denn wie Milton Friedman feststellte: „Menschliche Wünsche und Bedürfnisse sind endlos“ – wir wollen immer mehr, als wir haben. Mit einer von Technologie durchdrungenen Marktwirtschaft kommen wir dem Ziel näher, alles zu liefern, was sich jeder nur wünschen kann, aber nie ganz. Und deshalb vernichtet Technologie keine Arbeitsplätze und wird dies auch nie tun.

Das sind so umwerfende Ideen für Menschen, die ihnen noch nie begegnet sind, dass es einige Zeit dauern kann, sie zu verstehen. Aber ich schwöre, ich erfinde sie nicht – tatsächlich kann man sie in herkömmlichen Wirtschaftslehrbüchern nachlesen. Ich empfehle das Kapitel „The Curse of Machinery“ in Henry Hazlitts „Economics In One Lesson“ und Frederic Bastiats satirisches „Candlemaker's Petition to verdunkeln die Sonne aufgrund ihres unlauteren Wettbewerbs mit der Beleuchtungsindustrie“, hier modernisiert für unsere Zeit.

Aber dieses Mal ist es anders, denken Sie. Dieses Mal verfügen wir mit KI über die Technologie, die ALLE menschliche Arbeit ersetzen kann.

Aber denken Sie anhand der oben beschriebenen Prinzipien darüber nach, was es bedeuten würde, wenn buchstäblich die gesamte menschliche Arbeit durch Maschinen ersetzt würde.

Dies würde eine Beschleunigung des wirtschaftlichen Produktivitätswachstums bedeuten, die absolut stratosphärisch wäre und weit über alle historischen Präzedenzfälle hinausgeht. Die Preise bestehender Waren und Dienstleistungen würden auf breiter Front auf nahezu Null sinken. Das Verbraucherwohl würde sprunghaft ansteigen. Die Kaufkraft der Verbraucher würde sprunghaft ansteigen. Die neue Nachfrage in der Wirtschaft würde explodieren. Unternehmer würden eine schwindelerregende Vielfalt an neuen Industrien, Produkten und Dienstleistungen schaffen und so viele Menschen und KI wie möglich beschäftigen, um der neuen Nachfrage gerecht zu werden.

Angenommen, KI würde diese Arbeit erneut ersetzen? Der Zyklus würde sich wiederholen und das Wohlergehen der Verbraucher, das Wirtschaftswachstum sowie das Beschäftigungs- und Lohnwachstum noch weiter steigern. Es wäre eine gerade Spirale hinauf zu einer materiellen Utopie, von der weder Adam Smith noch Karl Marx jemals zu träumen wagten.

Wir sollten so viel Glück haben.

Apropos Karl Marx: Die Besorgnis darüber, dass KI Arbeitsplätze wegnimmt, geht direkt in das nächste behauptete KI-Risiko über, nämlich, OK, Marc, anzunehmen, dass KI tatsächlich alle Arbeitsplätze wegnimmt, sei es im Schlechten oder im Guten. Wird das nicht zu einer massiven und lähmenden Vermögensungleichheit führen, wenn die Besitzer von KI alle wirtschaftlichen Vorteile einstreichen und normale Menschen nichts bekommen?

Tatsächlich war dies eine zentrale Behauptung des Marxismus, dass die Eigentümer der Produktionsmittel – die Bourgeoisie – unweigerlich den Menschen, die die eigentliche Arbeit leisten – dem Proletariat – den gesamten gesellschaftlichen Reichtum stehlen würden. Dies ist ein weiterer Irrtum, der einfach nicht verschwinden wird, egal wie oft er durch die Realität widerlegt wird. Aber lasst uns trotzdem einen Pflock durch sein Herz treiben.

Der Fehler in dieser Theorie besteht darin, dass es als Besitzer einer Technologie nicht in Ihrem eigenen Interesse liegt, diese für sich zu behalten – ganz im Gegenteil: Es liegt in Ihrem eigenen Interesse, sie an möglichst viele Kunden zu verkaufen. Der größte Markt der Welt für jedes Produkt ist die ganze Welt, alle 8 Milliarden von uns. Und so verbreitet sich in Wirklichkeit jede neue Technologie – selbst solche, die zunächst an die erlesene Luft hochbezahlter Großunternehmen oder wohlhabender Verbraucher verkauft wird – schnell, bis sie in den Händen des größtmöglichen Massenmarktes, letztendlich aller Menschen auf dem Planeten, ist.

Das klassische Beispiel dafür war Elon Musks sogenannter „Geheimplan“ für Tesla im Jahr 2006 – den er natürlich offen veröffentlichte:

Schritt 1: Baue einen [teuren] Sportwagen

Schritt 2: Verwenden Sie das Geld, um ein erschwingliches Auto zu bauen

Schritt 3: Verwenden Sie dieses Geld, um ein noch günstigeres Auto zu bauen

…was er natürlich genau getan hat und dadurch zum reichsten Mann der Welt geworden ist.

Der letzte Punkt ist entscheidend. Wäre Elon noch reicher, wenn er heute nur noch Autos an reiche Leute verkaufen würde? Nein. Wäre er noch reicher, wenn er nur Autos für sich selbst bauen würde? Natürlich nicht. Nein, er maximiert seinen eigenen Gewinn durch den Verkauf auf dem größtmöglichen Markt, der Welt.

Kurz gesagt, jeder bekommt das Ding – wie wir in der Vergangenheit nicht nur bei Autos, sondern auch bei Elektrizität, Radio, Computern, dem Internet, Mobiltelefonen und Suchmaschinen gesehen haben. Die Hersteller solcher Technologien sind hochmotiviert, ihre Preise zu senken, bis sie sich jeder auf dem Planeten leisten kann. Genau das passiert bereits in der KI – deshalb können Sie hochmoderne generative KI nicht nur zu geringen Kosten, sondern in Form von Microsoft Bing und Google Bard heute sogar kostenlos nutzen – und das wird auch weiterhin passieren. Nicht weil solche Anbieter dumm oder großzügig sind, sondern weil sie gierig sind – sie wollen die Größe ihres Marktes maximieren, was ihre Gewinne maximiert.

Was also passiert, ist das Gegenteil davon, dass Technologie die Zentralisierung des Wohlstands vorantreibt – stattdessen werden einzelne Kunden der Technologie, darunter letztendlich jeder auf dem Planeten, gestärkt und vereinnahmen den größten Teil des generierten Werts. Wie bei früheren Technologien werden die Unternehmen, die KI entwickeln – vorausgesetzt, sie müssen auf einem freien Markt funktionieren – erbittert darum konkurrieren, dies zu erreichen.

Marx hatte damals Unrecht, und er hat auch heute Unrecht.

Das soll nicht heißen, dass Ungleichheit in unserer Gesellschaft kein Problem ist. Es ist einfach so, dass es nicht durch die Technologie vorangetrieben wird, sondern durch das Gegenteil, durch die Sektoren der Wirtschaft, die am resistentesten gegenüber neuen Technologien sind und die am meisten staatliche Eingriffe vornehmen, um die Einführung neuer Technologien wie KI zu verhindern – und zwar ganz konkret Wohnen, Bildung und Gesundheitsfürsorge. Das tatsächliche Risiko von KI und Ungleichheit besteht nicht darin, dass KI mehr Ungleichheit verursacht, sondern vielmehr darin, dass wir nicht zulassen, dass KI zur Verringerung von Ungleichheit eingesetzt wird.

Bisher habe ich erklärt, warum vier der fünf am häufigsten vorgeschlagenen Risiken von KI nicht wirklich real sind – KI wird nicht zum Leben erwachen und uns töten, KI wird unsere Gesellschaft nicht ruinieren, KI wird keine Massenarbeitslosigkeit verursachen und KI wird keine Massenarbeitslosigkeit verursachen eine ruinöse Zunahme der Ungleichheit. Aber jetzt kommen wir zum fünften Punkt, dem ich eigentlich zustimme: KI wird es schlechten Menschen leichter machen, schlechte Dinge zu tun.

In gewissem Sinne ist dies eine Tautologie. Technologie ist ein Werkzeug. Werkzeuge, angefangen bei Feuer und Steinen, können verwendet werden, um gute Dinge zu tun – Essen zu kochen und Häuser zu bauen – und schlechte Dinge – Menschen zu verbrennen und zu erschlagen. Jede Technologie kann zum Guten oder Schlechten genutzt werden. Fair genug. Und KI wird es Kriminellen, Terroristen und feindlichen Regierungen leichter machen, schlimme Dinge zu tun, keine Frage.

Dies veranlasst einige Leute zu dem Vorschlag: „In diesem Fall sollten wir das Risiko nicht eingehen und die KI jetzt verbieten, bevor dies passieren kann.“ Leider handelt es sich bei KI nicht um irgendein esoterisches physikalisches Material, das schwer zu bekommen ist, wie Plutonium. Im Gegenteil, es ist das am einfachsten zu bekommende Material der Welt – Mathematik und Code.

Die KI-Katze ist offensichtlich schon aus dem Sack. In Tausenden kostenlosen Online-Kursen, Büchern, Aufsätzen und Videos können Sie lernen, wie man KI aufbaut, und es gibt täglich mehr herausragende Open-Source-Implementierungen. KI ist wie Luft – sie wird überall sein. Das Maß an totalitärer Unterdrückung, das erforderlich wäre, um das so drakonisch zu verhaften – eine Weltregierung, die alle Computer überwacht und kontrolliert? Schläger mit Stiefeln in schwarzen Hubschraubern, die betrügerische GPUs beschlagnahmen? – dass wir keine Gesellschaft mehr hätten, die wir schützen könnten.

Stattdessen gibt es zwei sehr einfache Möglichkeiten, dem Risiko zu begegnen, dass schlechte Menschen mit KI schlechte Dinge tun, und genau auf diese sollten wir uns konzentrieren.

Erstens haben wir Gesetze in Kraft, die die meisten schlechten Dinge, die irgendjemand mit KI anstellen wird, unter Strafe stellen. Ins Pentagon hacken? Das ist ein Verbrechen. Geld von einer Bank stehlen? Das ist ein Verbrechen. Eine Biowaffe herstellen? Das ist ein Verbrechen. Eine terroristische Tat begehen? Das ist ein Verbrechen. Wir können uns einfach darauf konzentrieren, diese Verbrechen zu verhindern, wenn wir können, und sie strafrechtlich zu verfolgen, wenn wir das nicht können. Wir brauchen nicht einmal neue Gesetze – mir ist kein einziger tatsächlicher Missbrauch von KI bekannt, der vorgeschlagen wurde, der nicht bereits illegal wäre. Und wenn eine neue missbräuchliche Nutzung festgestellt wird, verbieten wir diese Nutzung. QED.

Aber Sie werden bemerken, was ich da hineingeschmuggelt habe – ich sagte, wir sollten uns zunächst darauf konzentrieren, KI-gestützte Straftaten zu verhindern, bevor sie passieren – würde eine solche Prävention nicht bedeuten, KI zu verbieten? Nun, es gibt eine andere Möglichkeit, solche Aktionen zu verhindern, und zwar durch den Einsatz von KI als Verteidigungsinstrument. Die gleichen Fähigkeiten, die KI in den Händen von Bösewichten mit schlechten Zielen gefährlich machen, machen sie in den Händen von Guten mit guten Zielen mächtig – insbesondere der Guten, deren Aufgabe es ist, zu verhindern, dass schlimme Dinge passieren.

Wenn Sie beispielsweise befürchten, dass KI gefälschte Personen und gefälschte Videos generiert, besteht die Antwort darin, neue Systeme zu entwickeln, mit denen Personen sich selbst und echte Inhalte mithilfe kryptografischer Signaturen verifizieren können. Die digitale Erstellung und Veränderung sowohl echter als auch gefälschter Inhalte gab es bereits vor der KI; Die Antwort besteht nicht darin, Textverarbeitungsprogramme und Photoshop – oder KI – zu verbieten, sondern darin, mithilfe von Technologie ein System aufzubauen, das das Problem tatsächlich löst.

Lassen Sie uns zweitens große Anstrengungen unternehmen, um KI für gute, legitime und defensive Zwecke einzusetzen. Lassen Sie uns KI bei der Cyberverteidigung, der biologischen Verteidigung, der Jagd auf Terroristen und bei allem anderen einsetzen, was wir tun, um uns selbst, unsere Gemeinschaften und unsere Nation zu schützen.

Natürlich gibt es bereits viele kluge Leute innerhalb und außerhalb der Regierung, die genau das tun – aber wenn wir all die Anstrengungen und die Intelligenz, die derzeit auf die vergebliche Aussicht, KI zu verbieten, darauf konzentrieren, KI zum Schutz vor bösen Menschen zu nutzen, die schlechte Dinge tun, Ich denke, dass eine von KI durchdrungene Welt zweifellos viel sicherer sein wird als die Welt, in der wir heute leben.

Es gibt ein letztes und reales KI-Risiko, das wahrscheinlich das gruseligste überhaupt ist:

KI wird nicht nur in den relativ freien Gesellschaften des Westens entwickelt, sondern auch von der Kommunistischen Partei der Volksrepublik China.

China hat eine ganz andere Vision von KI als wir – sie sehen darin einen Mechanismus zur autoritären Bevölkerungskontrolle, Punkt. Sie machen darüber nicht einmal ein Geheimnis, sie sind sich darüber im Klaren und verfolgen bereits ihre Agenda. Und sie beabsichtigen nicht, ihre KI-Strategie auf China zu beschränken – sie beabsichtigen, sie auf der ganzen Welt zu verbreiten, überall dort, wo sie 5G-Netze betreiben, überall, wo sie „Belt And Road“-Geld verleihen, überall, wo sie benutzerfreundliche Verbraucher-Apps wie Tiktok bereitstellen, die dienen als Frontends für ihre zentralisierte Befehls- und Kontroll-KI.

Das größte Risiko der KI besteht darin, dass China die weltweite KI-Vorherrschaft gewinnt, wir – die Vereinigten Staaten und der Westen – jedoch nicht.

Ich schlage eine einfache Strategie vor, wie man dagegen vorgehen kann – tatsächlich dieselbe Strategie, mit der Präsident Ronald Reagan den ersten Kalten Krieg mit der Sowjetunion gewann.

„Wir gewinnen, sie verlieren.“

Anstatt zuzulassen, dass unbegründete Paniken über Killer-KI, „schädliche“ KI, arbeitsplatzvernichtende KI und Ungleichheit erzeugende KI uns in die Enge treiben, sollten wir in den Vereinigten Staaten und im Westen uns so stark wie möglich auf die KI konzentrieren .

Wir sollten versuchen, den Wettlauf um die weltweite technologische Überlegenheit im Bereich der KI zu gewinnen, und sicherstellen, dass China dies nicht schafft.

Dabei sollten wir die KI so schnell und intensiv wie möglich in unsere Wirtschaft und Gesellschaft einbringen, um ihren Nutzen für die wirtschaftliche Produktivität und das menschliche Potenzial zu maximieren.

Dies ist der beste Weg, um sowohl den tatsächlichen KI-Risiken entgegenzuwirken als auch sicherzustellen, dass unsere Lebensweise nicht durch die viel düsterere chinesische Vision verdrängt wird.

Ich schlage einen einfachen Plan vor:

Und so nutzen wir KI, um die Welt zu retten.

Es ist Zeit zu bauen.

Ich schließe mit zwei einfachen Aussagen.

Die Entwicklung der KI begann in den 1940er Jahren, zeitgleich mit der Erfindung des Computers. Die erste wissenschaftliche Arbeit über neuronale Netze – die Architektur der KI, die wir heute haben – wurde 1943 veröffentlicht. Ganze Generationen von KI-Wissenschaftlern wurden in den letzten 80 Jahren geboren, gingen zur Schule, arbeiteten und starben in vielen Fällen, ohne sie zu sehen Auszahlung, die wir jetzt erhalten. Sie alle sind Legenden.

Heutzutage arbeiten immer mehr Ingenieure – von denen viele jung sind und deren Großeltern oder sogar Urgroßeltern möglicherweise an der Entwicklung der KI-Ideen beteiligt waren – daran, KI Wirklichkeit werden zu lassen, und das trotz einer Mauer aus Panikmache und Doomerismus versucht, sie als rücksichtslose Schurken darzustellen. Ich glaube nicht, dass sie rücksichtslos oder Schurken sind. Sie alle sind Helden. Meine Firma und ich freuen uns, so viele von ihnen wie möglich zu unterstützen, und wir werden ihnen und ihrer Arbeit zu 100 % zur Seite stehen.

* * *

Die hier geäußerten Ansichten sind die der einzelnen zitierten Mitarbeiter von AH Capital Management, LLC („a16z“) und nicht die Ansichten von a16z oder seinen verbundenen Unternehmen. Bestimmte hierin enthaltene Informationen stammen aus Drittquellen, unter anderem von Portfoliounternehmen der von a16z verwalteten Fonds. Obwohl a16z aus Quellen stammt, die als zuverlässig erachtet werden, hat a16z diese Informationen nicht unabhängig überprüft und gibt keine Zusicherungen über die aktuelle oder dauerhafte Richtigkeit der Informationen oder ihre Angemessenheit für eine bestimmte Situation ab. Darüber hinaus können diese Inhalte Werbung Dritter enthalten; a16z hat solche Anzeigen nicht überprüft und unterstützt die darin enthaltenen Werbeinhalte nicht.

Dieser Inhalt dient nur zu Informationszwecken und sollte nicht als Rechts-, Geschäfts-, Anlage- oder Steuerberatung herangezogen werden. Sie sollten in diesen Angelegenheiten Ihre eigenen Berater konsultieren. Verweise auf Wertpapiere oder digitale Vermögenswerte dienen nur der Veranschaulichung und stellen keine Anlageempfehlung oder ein Angebot zur Erbringung von Anlageberatungsdienstleistungen dar. Darüber hinaus richtet sich dieser Inhalt nicht an Anleger oder potenzielle Anleger und ist auch nicht für deren Nutzung bestimmt. Daher darf er unter keinen Umständen als Grundlage für die Entscheidung über eine Investition in einen von a16z verwalteten Fonds herangezogen werden. (Ein Angebot zur Investition in einen a16z-Fonds erfolgt nur durch das Privatplatzierungsmemorandum, die Zeichnungsvereinbarung und andere relevante Unterlagen eines solchen Fonds und sollte vollständig gelesen werden.) Alle erwähnten, erwähnten oder erwähnten Investitionen oder Portfoliounternehmen Die beschriebenen Investitionen sind nicht repräsentativ für alle von a16z verwalteten Investitionen in Fahrzeuge, und es kann nicht garantiert werden, dass die Investitionen rentabel sind oder dass andere in der Zukunft getätigte Investitionen ähnliche Eigenschaften oder Ergebnisse haben. Eine Liste der Investitionen der von Andreessen Horowitz verwalteten Fonds (ausgenommen Investitionen, für die der Emittent a16z keine Erlaubnis zur öffentlichen Offenlegung erteilt hat, sowie unangekündigte Investitionen in öffentlich gehandelte digitale Vermögenswerte) ist unter https://a16z.com/investments verfügbar /.

Die darin bereitgestellten Diagramme und Grafiken dienen ausschließlich Informationszwecken und sollten bei Anlageentscheidungen nicht als Grundlage herangezogen werden. Die Wertentwicklung in der Vergangenheit lässt keinen Rückschluss auf zukünftige Ergebnisse zu. Der Inhalt gilt nur zum angegebenen Datum. Alle in diesen Materialien zum Ausdruck gebrachten Prognosen, Schätzungen, Prognosen, Ziele, Aussichten und/oder Meinungen können ohne Vorankündigung geändert werden und können von den Meinungen anderer abweichen oder ihnen widersprechen. Weitere wichtige Informationen finden Sie unter https://a16z.com/disclosures.

Inhaltsverzeichnis