My near philosophical musings about the world in general its problems and possible ways out.

2023-04-24

ChatGPT, Bard & Ernie are just the beginning

AI will change everything in the future


On April 2023-04-04, I had a talk about ...
  • What it's all about,
  • where we are today,
  • where it can lead us, and
  • what special task we want to solve with it.
  • So that I don't forget anything, I made some notes.

    The first thought was, of course, "Why should I still do this myself? We have the AI after all."

    So, I fed the announcement of this post into ChatGPT.

    As additional requests I asked for civilised language, politically correct expression and a length of about 2500 words.

    The result was - hmmm, standard stuff, not wrong, but regurgitated common knowledge - a yawn then.

    Generative AI today

    Yet OpenAI's software has after all ...

    • passed the law exams at the University of Minnesota and
    • passed business exams at the renowned Wharton School of Business.

    However, ChatGPT failed the Bavarian Abitur in a test conducted by Bayerischer Rundfunk. This obviously requires more than just knowledge and intelligence, higher assistance perhaps.

    The class of applications to which ChatGPT belongs is called generative AI. And in generating, AI is truly inventive. Occasionally it is also haunted by hallucinations.

    For example, David Smerdon, an economist at the University of Queensland, had ChatGPT chatbot: "What is the most cited economic paper of all time?" ("What is the most cited economics paper of all time?").

    The answer came promptly and sounded plausible: "A Theory of Economic History" by Douglass North and Robert Thomas, published in the Journal of Economic History in 1969 and cited more than 30,000 times since then.

    The bot added that the article "is considered a classic in the field of economic history". A good answer, precise, short and crisp - only unfortunately wrong. Because this article never existed.

    I can explain everything is usually the knee-jerk reaction when one has been caught in flagrante delicto, that famous Italian seaside resort. The result can be explained: the ChatBot gave the statistically most probable answer. That's why it sounded so convincing at first. Bullshit at its best - just like Harry G. Frankfurt.

    Chatbots in their current version, such as Bard or ChatGPT, are therefore unsuitable for searches á la Google or Bing. Google, Microsoft and now Baidu have also had to learn this painfully. - Yet research in particular would be a wonderful application.

    But we can deal with the fallibility of the actors around us - even if not always successfully. It doesn't matter whether they are people or machines. We are used to that. It's in our genes. Fake news is as old as the world.

    And so, despite some spectacular failures, this powerful technique is already widely used - examples:

    Argonne National Laboratory reported (02/03/2023): "Machine learning speeds catalyst evaluation from months to milliseconds using a model to identify low-cost catalysts that convert biomass into fuels and useful chemicals."

    The South China Post reported on an aerial battle between two unmanned combat aircraft - one remotely controlled by an experienced pilot, the other AI-controlled. The AI had won the fight after 90 seconds.

    In chemistry, the ability to incorporate very large amounts of data into decisions is already proving particularly valuable.

    AI is the new laboratory assistant for ...

    • Optimisation of chemical reactions
    • Prediction of reaction conditions
    • Prediction of reaction results
    • retrosynthesis
    • Design of molecules
    • Prediction of molecular properties
    • Drug discovery
    • Protein folding

    Medicine has similar requirements for handling large amounts of information. Areas that benefit here are ...

    • Developing diagnoses
    • Making diagnoses
    • Testing hypotheses
    • Improving prognostics
    • Patient monitoring
    • ... and much more

    Our dysfunctional German school system could also be improved with this - otherwise it will be massively turned around against its will.

    Bill Gates (2023-03-21), however, already sees paradisiacal conditions coming:

    "AI will help people in incredible ways.

    But I'm particularly excited about its potential to make the world a fairer place.

    AI can help improve access to healthcare in underserved communities, boost education in the United States and around the world, and even prevent climate catastrophe.

    The priority of my work in artificial intelligence is to make sure it benefits everyone - not just the wealthy."

    Bankers don't want to be left behind: Jamie Dimon, ex CEO of J.P Morgan Chase Manhattan recently opined excitedly:

    "AI is a stunning technology. We are already using it in risk management, fraud detection, marketing and customer acquisition. And that's just the tip of the iceberg. To me, it's extraordinary."

    "Excitement is warranted, but caution is advisedMcKinsey then coolly comments on the ChatGPT hype.

    Please remain sober ...

    When we think of intelligence as the ability to solve problems, to learn, to understand, to plan, to think logically, to reason abstractly and to adapt, we are still inclined to deny Deep Learning systems intelligence.

    Let's take them for what they are - highly sophisticated statistical methods.

    Stuart Russell, Professor of Computer Science at the University of California at Berkeley, rather calls today's AI "mimicry".

    ChatGPT itself says solomonic: "The question of whether ChatGPT is intelligent or not should therefore be answered, in the context of its functions and capabilities."

    The state of knowledge became clear in a discussion moderated by Samuel Benjamin "Sam" Harris (US philosopher, neuroscientist, writer and debater) between Stuart Russel and Gary Marcus, scientist, best-selling author and entrepreneur.

    "We don't know today how chatbots get their results."

    "Deep Learning systems see the world like someone looking at a Pointillism painting (a style of Post-Impressionism, 1889 and 1910) and seeing all the dots - but not the painting."

    "As if someone has absorbed all the knowledge of the world, can reproduce it and yet has understood nothing. - Knows everything, understands nothing."

    But also ...

    "We can't even say yet whether, through simple further development, today's Narrow Intelligence may not eventually grow into a real Superintelligence."

    The singularity

    But we are still a long way from that. For we must not forget that the difference in complexity between the human brain and current AI systems amounts to about 3 orders of magnitude. The brain has ~ 86 billion neurons connected by trillions of synapses. GPT-3 (2021) by OpenAI comes to 175 billion parameters.

    However, the human brain and AI systems function in very different ways and have different strengths and weaknesses.

    Nor can we yet claim to have understood how the human brain works.

    Noam Chomsky sees in the current spate of AI chatbots like OpenAI's ChatGPT and Microsoft's Bing AI: "the first glimmers on the horizon of general artificial intelligence" - the point, that is, at which AI will be superior to humans in thought and action - but thinks we are absolutely nowhere near that stage yet.”

    "That day may be coming, but its dawn has not yet broken, contrary to what you can read in exaggerated headlines and what can be expected from imprudent investments," opined the Massachusetts Institute of Technology cognitive scientist.

    Man as creator

    According to biblical tradition, the Creator made man in His image.

    Since, according to this very tradition, in the style of the classical establishment, we are dealing with a white, old man, it worked sufficiently well in the creation of Adam.

    With the creation of Eve, a workaround was already necessary.

    The first bio-hack.

    But if we consider our very obvious imperfection, which manifests itself almost daily, this again does not cast such a good light on our very Master Template.

    If that has already gone wrong, how would it look if we earthlings were to create a creature in our own image?

    Can that work at all?

    Then perhaps it would be better not to make one in our image.

    But what values should this AI, this strong AI, then alternatively hold sacred?

    We remember that a strong AI should be at least equal to humans in its cognitive abilities.

    That follows from the definition.

    But if it is, it will probably be faster. We also assume that it does not tire, does not need sleep.

    (Whether these assumptions are admissible is highly uncertain. If there is still time, I would like to argue about it (with myself)).

    Assuming the admissibility of this assumption, no one would be better suited to develop the AI further than the AI itself.

    Would that be a wise decision?

    We must be aware that in this model we would be giving control out of our hands.

    A new strand of evolution would be opened, the outcome by definition uncertain.

    Humans would then be out of the loop - stopped cold.

    AI and society

    All true, but still: AI is something like electricity, a basic technology, not an application. But the applications that can already be expected at this - today's - level could free us humans from menial tasks and usher in a new era of creativity. A new Kondratjev cycle would be triggered. (We are currently in the 5thcycle).

    This would enable us to meet the claim of Gary Hamel, a thought leader and expert on management.

    "We have tried in the past to turn people into machine-like beings.

    They should adapt to industrialisation and automated, monotonous processes.

    This approach is counterproductive and limits human creativity, innovation and resilience."

    Instead of forcing people into mechanistic roles á la " Metropolis" (Fritz Lang's monumental 1927 silent expressionist film), Hamel advocates a more human-centred approach to work and organisations - and has been doing so since the 1990s

    But such a historical paradigm shift could also eliminate jobs altogether and raise huge social problems, experts warn.

    They don't have to be insurmountable, because earlier technological advances - from electricity to the internet - have also triggered major social change, says Siqi Chen, CEO of the San Francisco-based start-up Runway.

    The change that will result will be "orders of magnitude greater than any other technological change we've ever seen in history".

    If we think for a moment about the upheavals of industrialisation, such as the long-lasting schism between capitalism and communism, we may be in for something we are in no way prepared for.

    Regulation

    To err is human after all - well, actually.

    Its fallibility gives the bot, which after all had to undergo a long and strenuous deep learning training and still errs, already sympathetic, human traits.

    He is somehow one of us.

    That's apparently what now-suspended Google engineer Blake Lemoine thought when he claimed earlier this month that one of the company's experimental AIs called LaMDA had now developed feelings - prompting the software giant to put him on leave.

    Lemoine is not alone. Ilya Sutskever, lead scientist of the OpenAI research group, also recently tweeted that "it may be that today's large neural networks have evolved some consciousness."

    So that would be a being with the general intelligence of a grasshopper, albeit one that has acquired the knowledge of entire libraries.

    General intelligence? No, we are still a long way from that. It is not even clear whether we will ever reach the level of AGI (artificial general intelligence). Then the "machine would be more intelligent than man", would take its own further development into its own hands and send us to the beer garden. The singularity would be there.

    Even if it is still a long and possibly winding road, the fear of this loss of control, however it may turn out, has already arrived in the here and now. It already lives among us.

    In the AI scene, the approach of goal-setting or value engineering is therefore being discussed.

    Here, the system is given an unchangeable set of values and rules at birth, against which every action of the AI is tested.

    The three, and in the expanded version four, robot laws of Isaac Asimov (1942) are certainly among them.

    0.    a robot must not harm humanity or, through passivity, allow humanity to come to harm. 1. a robot must not harm any (individual) human.
    1.    a robot must not injure a (single) human being or allow humanity to come to harm through inaction, unless it would thereby violate the zeroth law.
    2.    a robot must obey the orders of humans - unless such orders are in conflict with the zeroth or first law.
    3.    a robot must protect its own existence as long as its actions do not contradict the zeroth, first or second law.

    Ok, that sounds good.

    We could do it that way - if we knew how to do it practically.

    Also, all the developers of the AI would really have to adhere to it.

    But this developer would be the AI itself, a specialised one perhaps.

    Would it really follow the given rules permanently?

    Power competition is the driver

    War is known to be the "father of all things".

    It has shaped us, made us what we are.

    It was the constant struggle for survival as an individual and as a community, against all other players in our natural environment, the environment itself and against our own species. It has become deeply embedded in our instincts and mostly only half-conscious values.

    Regrettably, this war is by no means over.

    On the contrary, at a time when things are getting tight for us on our planet, when we should actually be acting more as a community, as a global community mind you, our inherent instincts seem to be pointing us in a different, familiar direction: The struggle for dwindling resources, for living space, for places to survive in an increasingly devastated world.

    All signs point to a storm, indicate that the conflicts are intensifying - and will, must be fought out to the very last consequence.

    There is no need to explain further that the most effective weapon, namely AI, will be used for this purpose.

    And the party that can use the most effective AI will probably come out on top, will be able to defeat the opponent.

    When it comes to victory or defeat, of course all means are justified, let me emphasise "all".

    Does anyone seriously believe that even one of the opponents is then still "sacred" to built-in ethical rules?

    I think we can safely bury this illusion.

    But what will we be faced with then? How will AI behave and develop?

    What relationship will it have with humanity?

    Will it be similar to us, only much stronger - our downfall would be sealed.

    But if it surpasses us in intelligence, perhaps it will develop something like insight or even wisdom and protect us from ourselves.

    Finally, here is the opinion of the (controversial) Sam Harris:

    "A superintelligence vastly superior to the human one is inevitable.

    For if intelligence is only a matter of information processing, and we continue to improve our machines, we will produce a form of superintelligence.

    Then we will have to admit that we are in the process of creating a kind of God.

    Now would be a good time to make sure it's a god we can live with."

    AI for better politics

    It doesn't have to be God. We should remain humble. But how about supporting the business of government, from the local authority to the supranational organisation, with a system that is committed exclusively to rational decisions?

    There are plenty of reasons not to be satisfied with current politics. The weakest link in the chain is the human being himself.

    • Politicians are "heroes of the moment" (Gabor Steingart).
    • They do not plan for the long term.
    • Their job is far too uncertain for that.
    • The professional politician has politics as his profession - that is his whole concern.
    • The politics he stands for are not unimportant, but secondary, occasionally interchangeable.
    • Party programmes are therefore often woolly collections of popular but incoherent statements.
    • No programmer would call them a "programme".

    They do not address the real challenges, or address them half-heartedly:

    • Climate change,
    • resource depletion,
    • overpopulation,
    • species extinction,
    • inequality,
    • wars and finally the
    • limits to growth.

    The arduous and gruelling task of a politician's career tends to promote a negative selection of character.

    On election day, we cast our vote - and away it goes.

    The feeling of a bad buy quickly sets in.

    Or in the words of Hannah Arendt:

    "No one has ever counted truthfulness among the political virtues.

    Lying seems to be part of the craft not only of the demagogue but also of the politician and even the statesman.

    A remarkable and disturbing fact."

    The permanent survival of humanity in an intact environment, is thus no longer achievable.

    Yet, according to Noam Chomsky, "the challenge before us exceeds anything humanity has ever experienced. The fate of life on our planet is now at stake".

    How can we change this? à Less human - more programme

    As a central element, we want to create a political oracle to which we will give the rules by which the political entity, a state for example, should be governed. We will then be able to ask this oracle our questions about current political events.

    Pythia, albeit an unambiguous one, which will provide the citizen with soberly logical information, evaluate political decisions, comment on political events with incorruptible acuity.

    For, as Paul Kirchhof says: "There are hardly any tangible political principles of reliability left by which the powerful in this state act."

    So, with everything at stake, we should act strictly according to principles.

    So, why not, a small group of intrepid people, including myself, have thought.

    The vehicle will be a synthetic party.

    It deliberately refrains from orienting itself on existing models and wants to break new ground.

    She has given herself 3 assignments ...

    1. A permanent task,
    2. A secondary condition and
    3. A short-term goal

    The permanent task to which we have committed ourselves is to enable humanity to survive in an intact environment in the long term.

    The secondary condition is to preserve our typical European liberal civil liberties, which, according to John Stuart Mill, are particularly threatened in critical times.

    Our short-term goal is to create a multinational state "Europe" with sufficient weight to be able to fulfil our permanent task with its secondary condition.

    AI in politics so far

    There have already been a few attempts to use artificial intelligence in politics - mostly, however, for subordinate tasks ...

    • Campaign planning and management,
    • Trend and pattern recognition
    • Manipulative voter influence
    • Traffic optimisation,
    • olitical analysis
    • Crime prediction
    • Resource optimisation
    • ...

    In 2018, however, an AI-controlled robot named Michihito Matsuda ran for mayor of Tama City, a suburb of Tokyo. The AI-controlled candidate should be able to make more rational, data-driven decisions without being influenced by emotions or personal prejudices:

    Efficient management of city resources: the AI candidate promised to analyse and use city data to optimise resource allocation and improve public services.

    Fairness and transparency: Since AI has no personal interests or biases, the campaign said, AI could make more objective and fair decisions, reducing possible corruption or nepotism in politics.

    Responding quickly to citizens' needs: the AI candidate wanted to use data analytics to identify and meet the needs of the local community quickly and effectively.

    The AI candidate came third out of three candidates with ~4 000 votes. After all, a start had been made. A journey had begun.

    The somewhat lengthy introduction to the topic, with its emphasis on the opportunities and limitations, was probably able to make it clear that the technology for a political oracle is by no means as cheap and ubiquitously available as chatGPT.

    Oh yes, what does our generative AI have to say about our project? Here's the answer:

    "...One of the biggest challenges in developing an "AI oracle" for policy-making is to ensure that the system is transparent, accountable and able to make informed and reliable recommendations.

    This is likely to require significant advances in the explainability and interpretability of AI, as well as the development of new standards and regulations for the use of AI in policymaking. ...".

    By extension, ChatGPT 3.5 concludes that it is likely to take some time and significant progress in this discipline will be required before the oracle makes our jobs easier, provides predictability and clarity.

    Not easy, then.

    But if we don't even try, we have already lost.

    Or with Friedrich Schiller: "He who thinks too much will achieve little".

    Art is sometimes ahead of reality: to conclude, a still somewhat awkward vision: "Meet the AI Mayor- Interactive theatre to experience autonomous decision making." 


    ChatGPT, Bard & Ernie sind nur der Anfang

    KI wird künftig alles verändern


    Am 4. April 2023 habe ich vor dem Diplomatic Council darüber gesprochen …

    • Was es damit auf sich hat,
    • wo wir heute stehen,
    • wohin das alles noch führen kann und
    • welche besondere Aufgabe wir damit lösen wollen.

    Um nichts zu vergessen, hatte ich mir einige Notizen gemacht.

    Der 1. Gedanke dabei war natürlich „Warum soll ich das eigentlich noch selber machen? Wir haben doch die KI.“

    So habe ich die Ankündigung dieses Beitrags in ChatGPT eingefüttert.

    Als Zusatzwünsche habe ich um eine zivilisierte Sprache, eine politisch korrekte Ausdrucksweise und eine Länge von etwa 2500 Wörtern gebeten.

    Das Ergebnis war - hmmm, Standardware, nicht falsch, aber allgemein Bekanntes wiedergekäut – zum Gähnen also.

    Generative AI heute

    Dabei hat die Software von OpenAI immerhin …

    • die Prüfungen in Jura an der University of Minnesota und
    • Wirtschaftsprüfungen an der renommierten Wharton School of Business bestanden.

    Am bayerischen Abitur allerdings scheiterte ChatGPT in einem Test des Bayerischen Rundfunks. Dafür ist offenbar noch mehr erforderlich als nur Wissen und Intelligenz, höherer Beistand möglicherweise.

    Die Klasse der Anwendungen zu der ChatGPT gehört, wird generative AI genannt. Und beim Generieren ist die KI wahrhaft erfinderisch. Gelegentlich wird sie auch von Halluzinationen heimgesucht.

    So hatte David Smerdon, ein Wirtschaftswissenschaftler an der University of Queensland, den Chatbot ChatGPT gefragt: "Was ist die meistzitierte ökonomische Arbeit aller Zeiten?" (“What is the most cited economics paper of all time?”)

    Die Antwort kam prompt und klang plausibel: "A Theory of Economic History" von Douglass North und Robert Thomas, veröffentlicht im „Journal of Economic History“ im Jahr 1969 und seitdem mehr als 30.000-mal zitiert.

    Der Bot fügte noch hinzu, dass der Artikel "als ein Klassiker im Bereich der Wirtschaftsgeschichte gilt". Eine gute Antwort, präzise, kurz und knackig - nur leider falsch. Denn diesen Artikel hat es nie gegeben.

    "Ich kann alles erklären" ist üblicherweise die reflexhafte Reaktion, wenn man in flagranti, jenem berühmten italienischen Badeort, ertappt wurde. Erklären lässt sich das Ergebnis schon: Der ChatBot hat die statistisch wahrscheinlichste Antwort gegeben. Daher klang sie zunächst auch so überzeugend. Bullshit vom Feinsten also – ganz im Sinne von Harry G. Frankfurt.

    Für die Suche á la Google oder Bing sind ChatBots in der heutigen Version, wie Bard oder ChatGPT also ungeeignet. Das mussten sowohl Google wie auch Microsoft und inzwischen Baidu ebenfalls schmerzhaft erfahren. – Dabei wäre gerade die Recherche eine wunderbare Anwendung.

    Mit der Fehlbarkeit der Akteure um uns herum aber können wir umgehen - wenn auch nicht immer erfolgreich. Dabei ist es egal ob es sich nun um Menschen oder Maschinen handelt. Das sind wir gewöhnt. Das steckt in unseren Genen. Fake News sind so alt wie die Welt.

    Und so wird diese mächtige Technik denn auch bereits breit eingesetzt -Beispiele:

    Das Argonne National Laboratory meldete (02.03.2023): „Maschinelles Lernen beschleunigt die Bewertung von Katalysatoren von Monaten auf Millisekunden durch ein Modell zur Identifizierung kostengünstiger Katalysatoren, die Biomasse in Kraftstoffe und nützliche Chemikalien umwandeln.

    Die South China Post berichtete von einem Luftkampf zweier unbemannter Kampfflugzeuge – das eine von einem erfahrenen Piloten ferngesteuert, das andere KI-gesteuert. Die KI hatte den Kampf nach 90 Sekunden für sich entschieden.

    In der Chemie erweist sich die Fähigkeit, sehr große Datenmengen in Entscheidungen einzubeziehen bereits heute als besonders wertvoll.

    KI ist der neue Laborassistent für die …

    • Optimierung chemischer Reaktionen
    • Vorhersage von Reaktionsbedingungen
    • Vorhersage von Reaktionsergebnissen
    • Retrosynthese
    • Entwurf von Molekülen
    • Vorhersage von Moleküleigenschaften
    • Entdeckung von Arzneimitteln
    • Proteinfaltung

    Die Medizin stellt ähnliche Anforderungen an die Bewältigung großer Informationsmengen. Gebiete die hier profitieren sind …

    • Entwickeln von Diagnosen
    • Stellen von Diagnosen
    • Testen von Hypothesen
    • Verbesserung der Prognostik
    • Patientenüberwachung
    • … und vieles mehr

    Unser dysfunktionales Deutsches Schulsystem könnte sich damit ebenfalls verbessern lassen – massiv umgekrempelt wird es sonst wider Willen.

    Bill Gates (2023-03-21) sieht aber schon jetzt paradiesische Zustände heraufziehen:

    Die KI wird den Menschen auf unglaubliche Weise helfen.

    Aber ich bin besonders begeistert von ihrem Potenzial, die Welt gerechter zu machen.

    KI kann dazu beitragen, den Zugang zu medizinischer Versorgung in unterversorgten Gemeinden zu verbessern, die Bildung in den Vereinigten Staaten und auf der ganzen Welt zu fördern und sogar eine Klimakatastrophe zu verhindern.

    Die Priorität meiner Arbeit im Bereich der künstlichen Intelligenz liegt darin, dafür zu sorgen, dass sie allen zugute kommt - und nicht nur den Wohlhabenden.“

    Da wollen die Banker nicht zurückstehen: Jamie Dimon, Ex CEO von J.P Morgan Chase Manhattan meinte unlängst aufgeregt:

    "KI ist eine atemberaubende Technologie. Wir nutzen sie bereits im Risiko-Management, der Betrugserkennung, im Marketing und zur Kundengewinnung. Und das ist nur die Spitze des Eisbergs. Für mich ist das außergewöhnlich."

    Aufregung ist gerechtfertigt, aber Vorsicht ist gebotenkommentiert McKinsey denn auch kühl den ChatGPT-Hype.

    Bitte nüchtern bleiben …

    Wenn wir bei dem Begriff Intelligenz mit der Fähigkeit, Probleme zu lösen, zu lernen, zu verstehen, zu planen, logisch zu denken, abstrakt zu argumentieren und sich anzupassen, sind wir geneigt, den Deep Learning Systemen die Intelligenz noch abzusprechen.

    Nehmen wir sie als das, was sie sind – hochgezüchtete statistische Methoden.

    Stuart Russell, Professor of Computer Science an der University of California at Berkeley, nennt die heutige KI eher “Mimikri“.

    ChatGPT meint selber salomonisch: „Die Frage, ob ChatGPT intelligent ist oder nicht, sollte daher, im Kontext seiner Funktionen und Fähigkeiten beantwortet werden.“

    Der Stand der Erkenntnis wurde in einer von Samuel Benjamin „Sam“ Harris(US-amerikanischer Philosoph, Neurowissenschaftler, Schriftsteller und Debattenredner)moderierten Diskussion zwischen Stuart Russel und Gary Marcus, Wissenschaftler, Bestsellerautor und Unternehmer, deutlich.

    Wir wissen heute nicht, wie ChatBots zu ihren Ergebnissen kommen.“

    Die Deep Learning Systeme sehen die Welt, wie jemand der ein Bild des Pointillismus (eine Stilrichtung des Post-Impressionismus, 1889 und 1910) betrachtet und alle Punkte sieht – aber nicht das Bild.“

    Als wenn jemand das gesamte Wissen der Welt aufgenommen hat, wieder geben kann und doch nichts verstanden hat. – Weiß alles, versteht nichts.“

    Aber auch …

    Wir können noch nicht einmal sagen, ob nicht durch schlichte Weiterentwicklung aus der heutigen Narrow Intelligence irgendwann eine wirkliche Superintelligenz erwachsen kann.“

    Die Singularität

    Aber so weit sind wir noch lange nicht. Denn wir dürfen nicht vergessen, dass sich der Komplexitätsunterschied zwischen dem menschlichen Gehirn und aktuellen KI-Systemen auf etwa 3 Zehnerpotenzen beläuft. Das Gehirn hat ~ 86 Milliarden Neuronen, die durch Billionen von Synapsen miteinander verbunden sind. GPT-3 (2021) von OpenAI kommt auf 175 Milliarden Parameter.

    Das menschliche Gehirn und KI-Systeme auf funktionieren allerdings auf sehr unterschiedliche Weise und haben unterschiedliche Stärken und Schwächen.

    Auch können wir noch nicht behaupten, die Funktionsweisedes menschlichen Gehirns verstanden zu haben.

    Noam Chomsky sieht in der aktuellen Flut von KI-Chatbots wie ChatGPT von OpenAI und Bing AI von Microsoft: "die ersten Schimmer am Horizont der allgemeinen künstlichen Intelligenz" - der Punkt also, an dem die KI dem Menschen im Denken und Handeln überlegen sein wird – meint aber, dass wir absolut noch nicht in der Nähe dieser Stufe sind.

    "Dieser Tag mag kommen, aber dessen Morgendämmerung ist noch nicht angebrochen, im Gegensatz zu dem, was man in übertriebenen Schlagzeilen lesen kann und was von unüberlegten Investitionen zu erwarten ist", meinte der Kognitionswissenschaftler vom Massachusetts Institute of Technology.

    Der Mensch als Schöpfer

    Der biblischen Überlieferung nach hat der Schöpfer den Menschen nach seinem Ebenbildgeschaffen.

    Da es sich hier ebendieser Überlieferung nach, ganz im Stile des klassischen Establishments, um einen weißen, alten Mann handelt, hat es bei der Erschaffung von Adam hinreichend funktioniert.

    Bei der Kreation von Eva war bereits ein Workaround erforderlich.

    Der erste Bio-Hack.

    Wenn wir aber unsere ganz offensichtliche Unvollkommenheit in Betracht ziehen, die sich fast täglich manifestiert, wirft das wiederum kein so gutes Licht auf eben unser Master Template.

    Wenn das schon schief gegangen ist, wie würde es dann aussehen, wenn wir Erdenbürger eine Kreatur nach unserem Ebenbild schaffen würden?

    Kann das überhaupt gut gehen?

    Dann vielleicht besser doch nicht nach unserem Ebenbild.

    Aber welche Werte sollen dieser KI, dieser starken KI denn dann alternativ heilig sein?

    Wir erinnern uns, dass eine starke KI in ihren kognitiven Fähigkeiten dem Menschen mindestens ebenbürtig sein soll.

    Das ergibt sich aus der Definition.

    Wenn sie das aber ist, wird sie aber vermutlich schnellersein. Wir vermuten auch, dass sie nicht ermüdet, keinen Schlaf benötigt.

    (Ob diese Vermutungen zulässig sind, ist höchst unsicher. Wenn noch Zeit bleibt will ich gerne darüber (mit mir selber) streiten).

    Die Zulässigkeit dieser Annahme unterstellt, wäre dann niemand besser geeignet, die KI weiter zu entwickeln, als die KI selber.

    Ob das eine kluge Entscheidung wäre?

    Wir müssen uns darüber im Klaren sein, dass wir in diesem Modell die Kontrolle aus der Hand gäben.

    Ein neuer Strang der Evolution wäre eröffnet, der Ausgang per definitionem ungewiss.

    Der Mensch wäre dann out of the loop - kaltgestellt.

    KI und Gesellschaft

    Stimmt wohl alles, und dennoch: KI ist so etwas wie Elektrizität, eine Grundlagen-Technik, keine Anwendung. Aber die Anwendungen, die schon auf dieser – heutigen - Ebene zu erwarten sind, könnten uns Menschen von niederen Aufgaben befreien und eine neue Ära der Kreativität einleiten. Ein neuer Kondratjew Zyklus würde ausgelöst. (aktuell befinden wir uns im 5. Zyklus)

    Damit könnten wir der Forderung von Gary Hamel, einem Vordenker und Experten für Management, entgegenkommen.

    Wir haben in der Vergangenheit versucht, Menschen in maschinenähnliche Wesen zu verwandeln.

    Sie sollten sich an die Industrialisierung und automatisierte, monotone Prozesse anzupassen.

    Dieser Ansatz ist kontraproduktiv und schränkt die menschliche Kreativität, Innovation und Widerstandsfähigkeit ein.“

    Anstatt Menschen in mechanistische Rollen á la „Metropolis“ (monumentaler Stummfilm des Expressionismus von Fritz Lang aus dem Jahr 1927) zu zwingen, befürwortet Hamel einen stärker menschenzentrierten Ansatz für Arbeit und Organisationen - und das schon seit den 90er Jahren

    Doch ein solcher historischer Paradigmenwechsel könnte Arbeitsplätze auch ganz entfallen lassen und gewaltige soziale Probleme aufwerfen, warnen Experten.

    Unüberwindbar müssen sie nicht sein, denn auch frühere technologische Fortschritte - von der Elektrizität bis zum Internet - haben einen starken sozialen Wandel ausgelöst, sagt Siqi Chen, Geschäftsführer des Start-ups Runway aus San Francisco.

    Der Wandel, der sich daraus ergibt, wird "um Größenordnungen größer sein als jeder andere technologische Wandel, den wir in der Geschichte je erlebt haben".

    Denken wir nur kurz einmal an die Verwerfungen im Zuge Industrialisierung, wie dem langanhaltenden Schisma zwischen Kapitalismus und Kommunismus, dann dürfte uns demnächst wohl einiges bevorstehen, auf das wir in keiner Weise vorbereitet sind.

    Regulierung

    Irren ist doch menschlich - na ja eigentlich.

    Seine Fehlbarkeit verleiht dem Bot, der sich schließlich einem langen und anstrengenden Deep Learning Training hatte unterziehen müssen und dennoch irrt, schon sympathisch, menschliche Züge.

    Er ist irgendwie einer von uns.

    So dachte offenbar auch der inzwischen suspendierte Google-Ingenieur Blake Lemoine, als er Anfang des Monats behauptete, dass eine der experimentellen KI des Unternehmens namens LaMDA inzwischen Gefühle entwickelt hätte - was den Software-Riesen dazu veranlasste, ihn zu beurlauben.

    Lemoine ist nicht allein. Auch Ilya Sutskever, leitender Wissenschaftler der OpenAI-Forschungsgruppe, twitterte kürzlich, dass "es sein kann, dass die heutigen großen neuronalen Netzwerke ein wenig Bewusstsein entwickelt" hätten.

    Das wäre also ein Wesen mit der allgemeinen Intelligenz einer Heuschrecke, das sich allerdings das Wissen ganzer Bibliotheken angelesen hat.

    Allgemeine Intelligenz? Nein, so weit sind wir noch lange nicht. Es ist noch nicht einmal klar, ob wir jemals soweit kommen werden, dass wir AGI-Niveau (artificial general intelligence) erreichen werden. Dann wäre die „Maschine intelligenter als der Mensch“, würde ihre eigene Weiterentwicklung in die Hand nehmen und uns in den Biergarten schicken. Die Singularität wäre da.

    Mag es auch noch ein langer und möglicherweise gewundener Weg sein, die Angst vor diesen Kontrollverlust, wie auch immer er ausgehen mag, ist bereits im hier und jetzt angekommen. Sie wohnt bereits unter uns.

    In der KI-Szene wird daher der Ansatz des Goal-Setting oder Value Engineering diskutiert.

    Dabei wird dem System bei seiner Geburt ein unveränderbarer Satz an Werten und Regeln mitgegeben, gegen die jede Handlung der KI geprüft wird.

    Die drei und in der erweiterten Fassung vier, Robotergesetze des Isaac Asimov (1942) zählen sicherlich dazu.

    • 0. Ein Roboter darf die Menschheit nicht verletzen oder durch Passivität zulassen, dass die Menschheit zu Schaden kommt.

    • 1. Ein Roboter darf keinen (einzelnen) Menschen verletzen oder durch Untätigkeit zu Schaden kommen lassen, außer er verstieße damit gegen das nullte Gesetz.

    • 2. Ein Roboter muss den Befehlen der Menschen gehorchen – es sei denn, solche Befehle stehen im Widerspruch zum nullten oder ersten Gesetz.

    • 3. Ein Roboter muss seine eigene Existenz schützen, solange sein Handeln nicht dem nullten, ersten oder zweiten Gesetz widerspricht.

    Ok, das klingt gut.

    So könnten wir es machen - wenn wir denn wüssten, wie es praktisch zu bewerkstelligen wäre.

    Auch müssten sich wirklich alle Entwickler der KI daranhalten.

    Dieser Entwickler aber wäre die KI selber, eine spezialisierte vielleicht.

    Würde sie den mitgegebenen Regeln wirklich dauerhaft folgen?

    Krieg als Treiber

    Der Krieg ist bekanntlich der „Vater aller Dinge“.

    Er hat uns geformt, uns zu dem gemacht, was wir sind.

    Es war der stete Kampf ums Überleben als Individuum und als Gemeinschaft, gegen alle anderen Mitspieler in unserem natürlichen Umfeld, die Umwelt selber und gegen unsere eigene Spezies. Er hat sich tief in unseren Instinkten und meist nur halb bewussten Werten verankert.

    Bedauerlicherweise ist dieser Krieg auch keineswegs zu Ende.

    Ganz im Gegenteil scheint in einer Zeit, in der es eng wird für uns auf unserem Planeten, in der wir eigentlich vermehrt als Gemeinschaft handeln sollten, als Weltgemeinschaft wohlgemerkt, scheinen uns unsere mitgegebenen Instinkte eher in eine andere, vertraute Richtung zu weisen: Den Kampf um die schwindenden Ressourcen, um Lebensraum, um Orte zum Überleben in einer zunehmend verwüsteten Welt.

    Alle Zeichen deuten auf Sturm, deuten darauf hin, dass sich die Konflikte verschärfen – und bis zur allerletzten Konsequenz ausgetragen werden, werden müssen.

    Es muss wohl nicht weiter begründet werden, dass dazu dann die wohl wirksamste Waffe, die KI nämlich, eingesetzt werden wird.

    Und die Partei, die die effektivste KI einsetzen kann, wird vermutlich die Nase vorn haben, den Gegner besiegen können.

    Wenn es um Sieg oder Niederlage geht, sind selbstverständlich alle Mittel recht, ich betone „alle“.

    Glaubt jemand ernsthaft, dass auch nur einem der Kontrahenten dann eingebaute ethische Regeln noch „heilig“ sind?

    Diese Illusion, so denke ich können wir getrost begraben.

    Was aber blüht uns dann? Wie wird sich die KI verhalten, weiterentwickeln?

    Welches Verhältnis wird sie zur Menschheit haben?

    Wird sie uns ähnlich sein nur viel stärker - unser Untergang wäre besiegelt.

    Wenn sie uns aber an Intelligenz weit übertreffen sollte, vielleicht entwickelt sie dann so etwas wie Einsicht, oder gar Weisheit und schützt uns vor uns selbst.

    Zum Abschluss hier die Meinung des (umstrittenen) Sam Harris:

    Eine „Superintelligenz“, die der menschlichen haushoch überlegen ist, ist unausweichlich.

    Denn wenn Intelligenz nur eine Frage der Informationsverarbeitung ist und wir unsere Maschinen weiter verbessern, werden wir eine Form von Superintelligenz hervorbringen.

    Dann müssen wir zugeben, dass wir dabei sind, eine Art von Gott zu erschaffen.

    Jetzt wäre ein guter Zeitpunkt, um sicherzustellen, dass es ein Gott ist, mit dem wir leben können.“

    KI für eine bessere Politik

    Es muss ja nicht gleich Gott sein. Wir sollten bescheiden bleiben. Wie wäre es aber damit, das Regierungsgeschäft von der Gemeinde bis zur supranationalen Organisation mit einem System zu unterstützen, das sich ausschließlich Vernunftentscheidungen verpflichtet fühlt?

    Gründe, mit der aktuellen Politik nicht zufrieden zu sein, gibt es ausreichend. Das schwächste Glied in der Kette ist dabei der Mensch selber.

    • Politiker sind „Helden des Augenblicks“ (Gabor Steingart)
    • Sie planen nicht langfristig.
    • Dazu ist ihr Job viel zu unsicher.
    • Der Berufspolitiker hat die Politik als Beruf – Dem gilt seine ganze Sorge.
    • Die Politik, für die er steht, ist nicht unwichtig, aber zweitrangig, gelegentlich austauschbar.
    • Parteiprogramme sind daher oft schwammige Sammlungen populärer aber zusammenhangsloser Statements.
    • Kein Programmierer würde sie „Programm“ nennen.

    Die wahren Herausforderungen gehen sie nicht oder halbherzig an:

    • Klimawandel,
    • Ressourcenverbrauch,
    • Überbevölkerung,
    • Artensterben,
    • Ungleichheit,
    • Kriege und schließlich die
    • Grenzen des Wachstums.

    Die „Ochsentour“ einer Politiker-Karriere befördert eher eine charakterliche Negativauslese.

    Am Wahltag geben wir unsere Stimme ab – und weg ist sie.

    Schnell stellt sich das Gefühl eines Fehlkaufs ein.

    Oder mit Hannah Arendt gesprochen:

    Niemand hat je Wahrhaftigkeit zu den politischen Tugenden gerechnet.

    Lügen scheint zum Handwerk nicht nur des Demagogen, sondern auch des Politikers und sogar des Staatsmannes zu gehören.

    Ein bemerkenswerter und beunruhigender Tatbestand.“

    Das dauerhafte Überleben der Menschheit in einer intakten Umwelt, ist damit nicht mehr erreichbar.

    Dabei, so Noam Chomsky, „Übersteigt die Herausforderung, die vor uns liegt, alles, was die Menschheit je erlebt hat. Das Schicksal des Lebens auf unserem Planeten steht jetzt auf dem Spiel“.

    Wie können wir das ändern? à Weniger Mensch – mehr Programm

    Als zentrales Element wollen wir ein politisches Orakel schaffen, dem wir die Regeln mitgeben, nach denen die politische Einheit, ein Staat etwa, regiert werden sollte. An dieses werden wir dann unsere Fragen aus dem politischen Tagesgeschehen stellen können.

    Eine, allerdings unzweideutige, Pythia, die dem Bürger nüchtern logische Auskunft gibt, Politikerentscheidungen bewertet, das politische Geschehen mit unbestechlicher Schärfe kommentiert.

    Denn, wie Paul Kirchhof sagt: „Es gibt kaum noch greifbare politische Prinzipien der Verlässlichkeit, nach denen die Mächtigen in diesem Staat handeln.

    Bei allem, was auf dem Spiel steht, sollten wir also streng nach Prinzipien handeln.

    Warum also nicht, hat sich eine kleine Gruppe unerschrockener, zu der auch ich gehöre, gedacht.

    Das Vehikel wird eine synthetische Partei sein.

    Sie verzichtet bewusst darauf, sich an existierenden Vorbildern zu orientieren, will Neuland betreten.

    Sie hat sich 3 Aufträge gegeben …

    Die dauerhafte Aufgabe, der wir uns verschrieben haben, ist das Überleben der Menschheit in einer intakten Umwelt dauerhaft zu ermöglichen.

    Die Nebenbedingung dabei ist es, dabei unsere typisch Europäischen liberalen Bürgerfreiheiten zu erhalten, die ganz nach John Stuart Mill [1] in kritischen Zeiten besonders bedroht sind.

    Unser Kurzfristziel ist es, einen Multinationenstaat „Europa“ mit ausreichend Gewicht zu schaffen, um überhaupt die Fähigkeit zu erlangen, unsere dauerhafte Aufgabe mit ihrer Nebenbedingung erfüllen zu können.

    KI in der Politik bisher

    Versuche künstliche Intelligenz in der Politik einzusetzen hat es bereits einige gegeben – zumeist allerdings für untergeordnete Aufgaben …

    • Kampagnenplanung und -management,
    • Trend- und Mustererkennung,
    • Manipulative Wählerbeeinflussung,
    • Verkehrsoptimierung,
    • Politische Analyse,
    • Verbrechensvorhersage,
    • Ressourcenoptimierung,

    Im Jahr 2018 kandidierte allerdings bereits ein KI-gesteuerter Roboter namens Michihito Matsuda für das Amt des Bürgermeisters in Tama City, einem Vorort von Tokio.

    Der KI-gesteuerte Kandidat sollte rationalere, datengestützte Entscheidungen treffen könnte, ohne von Emotionen oder persönlichen Vorurteilen beeinflusst zu werden:

    • Effiziente Verwaltung der städtischen Ressourcen: Der KI-Kandidat versprach, städtische Daten zu analysieren und zu nutzen, um die Zuweisung von Ressourcen zu optimieren und öffentliche Dienstleistungen zu verbessern.

    • Fairness und Transparenz: Da KI keine persönlichen Interessen oder Voreingenommenheiten hat, so die Kampagne, könnte KI objektivere und gerechtere Entscheidungen treffen und so mögliche Korruption oder Vetternwirtschaft in der Politik verringern.

    • Schnelle Reaktion auf die Bedürfnisse der Bürger: Der KI-Kandidat wollte die Datenanalyse nutzen, um die Bedürfnisse der lokalen Gemeinschaft schnell und effektiv zu ermitteln und zu erfüllen.

    Der KI-Kandidat belegte mit ~ 4 000 Stimmen den dritten Platz von drei Kandidaten. Immerhin, ein Anfang war gemacht worden. Eine Reise hat begonnen.

    Die etwas längliche Einführung in das Thema mit ihrer Betonung der Chancen und Beschränkungen hat vermutlich deutlich machen können, dass die Technik für ein politisches Orakel noch keineswegs so wohlfeil und ubiquitär verfügbar ist, wie ChatGPT.

    Ach ja, was sagt denn unsere generative KI zu unserem Vorhaben? Hier die Antwort:

    Eine der größten Herausforderungen bei der Entwicklung eines "KI-Orakels" für die politische Entscheidungsfindung besteht darin, sicherzustellen, dass das System transparent und rechenschaftspflichtig ist und in der Lage ist, fundierte und zuverlässige Empfehlungen abzugeben.

    Dies wird wahrscheinlich erhebliche Fortschritte bei der Erklärbarkeit und Interpretierbarkeit von KI sowie die Entwicklung neuer Standards und Vorschriften für den Einsatz von KI in der politischen Entscheidungsfindung erfordern. …“

    Im weiteren Verlauf schlussfolgert ChatGPT 3.5, dass es wohl noch einige Zeit dauern kann und noch erhebliche Fortschritte in dieser Disziplin erforderlich werden, bevor uns das Orakel die Arbeit erleichtert, Berechenbarkeit und Klarheit schafft.

    Nicht ganz einfach also.

    Aber, wenn wir es gar nicht erst versuchen, haben wir schon jetzt verloren.

    Oder mit Friedrich Schiller: "Wer gar zu viel bedenkt, wird wenig leisten"

    Die Kunst ist der Wirklichkeit so manches Mal voraus: Zum Abschluss eine noch etwas unbeholfene Vision: “Meet the AI Mayor- Interactive theatre to experience autonomous decision making.“


    [1] Ein britischer Philosoph, Politiker und Ökonom, einer der einflussreichsten liberalen Denker des 19. Jahrhunderts