Künstliche Dummheit statt Künstliche Intelligenz

Warum Künstliche Intelligenz (KI) in Spielen stagniert

25.01.2008 von Heiko Klinge
Die Künstliche Intelligenz (KI) oder auch Artificial Intelligence (AI) hat ein Problem. Denn während die Grafik von Computerspielen kontinuierlich besser wird, stagniert die Simulation von Künstlicher Intelligenz seit Jahren auf niedrigem Niveau. Programmierer und Wissenschaftler untersuchen die Gründe für die KI-Dummheit.

1996: Ein für heutige Verhältnisse extrem pixeliger Ernter sucht im Strategie-Primus Command & Conquer nach dem Rohstoff Tiberium, rollt dabei jedoch einfältig mitten in Hauptquartier des Feindes und zerplatzt in einer hässlichen Mini-Explosion.

2007: Ein Ernter auf höchstem grafischen Niveau sucht im Strategie-Hit Command & Conquer 3 nach dem Rohstoff Tiberium, rollt dabei jedoch einfältig mitten in das Hauptquartier des Feindes und wird von gleißenden Laserstrahlen eindrucksvoll in seine Einzelteile zerrissen, die physikalisch korrekt in alle Himmelsrichtungen fliegen. Elf Jahre liegen zwischen den oben beschriebenen Szenen. Elf Jahre, in denen sich die Optik enorm weiter entwickelt hat: 3D-Grafik, Spezialeffekte, Physik-Simulation. Elf Jahre, in denen sich aber auch ein wichtiges Detail nicht verändert hat: Der Ernter verhält sich 2007 noch genauso unklug wie 1996.

Das Spiel Command & Conquer steht dabei nur exemplarisch für ein grundlegendes Phänomen: Die Grafik von Computerspielen wird fortdauernd verbessert, doch die Simulation von Künstlicher Intelligenz (KI) steht seit Jahren auf niedrigem Niveau still. Wo liegen die Ursachen für diese immer breiter werdende Kluft zwischen realistischen Welten und realistischem Verhalten?

So funktioniert KI

Der Ernter von Command & Conquer 3 macht nicht alles falsch. Er findet selbstständig den Weg durch komplexe Gebiete zu weit entfernten Abbaugebieten oder registriert automatisch, wann ein Rohstoffvorkommen abgeerntet ist. Deshalb bringt der Technische Direktor bei Related Designs und Chef-Programmierer des Aufbau-Strategiespiels Anno 1701 Thomas Stein, die undankbare Aufgabe der KI-Entwickler auf den Punkt: „Eine Künstliche Intelligenz fällt meistens nur dann auf, wenn sie nicht richtig funktioniert.“ Aber wie funktioniert eine KI überhaupt?

Einfach ausgedrückt definieren die Programmierer für alle Einheiten, Gebäude, Nicht-Spieler-Charaktere, Feinde und so weiter, wie sie sich in bestimmten Situationen eines Spiels zu verhalten haben. Je mehr solcher Verhaltensweisen in Verbindung mit bestimmten Situationen definiert werden, desto schlauer wirkt die Künstliche Intelligenz eines Computerspiels.

Ein einfaches Beispiel: Im Programmier-Lernprogramm AntMe! von Microsoft (siehe Bild) sammeln Ameisen unter Zeitdruck Früchte ein und bekämpfen dabei kräftemäßig überlegene Käfer. Ein KI-Programmcode definiert das Verhalten einer Ameise bei der Begegnung mit einem gefährlichen Käfer:

public override void Sieht (Käfer käfer)
{
if (AnzahlInSichtweite > 10)
{
GreifeAn(käfer);
} else {
DrehenUm();
GeheGeradeaus(100)
}
}

Folgendes passiert: Sobald ein Käfer in den Bereich unserer Ameise kommt, prüft sie, ob sich noch mehr als zehn weitere Ameisen in ihrem näheren Umfeld befinden. Falls ja, attackiert sie den Käfer. Falls nein, rennt sie 100 Schritte in die entgegengesetzte Richtung davon.

Komplexe Regeln & Probleme

So lange das Regelwerk so überschaubar wie in AntMe! bleibt, kann KI Erstaunliches leisten. Schach-Simulationen wie Fritz oder Shredder schlagen seit den 1990er-Jahren sogar regelmäßig menschliche Weltmeister. Warum erleben wir dann in anderen Spielen immer noch die dümmsten Anfängerfehler?

Thomas Stein hält den Vergleich für unfair: „Beim Schach hast du 64 Felder und sechs unterschiedliche Figuren. Bei Anno 1701 dagegen 1.000 mal 1.000 Felder sowie Hunderte Gebäude, Warenketten und Einheiten. Kein Computer der Welt kann die schier unendlichen Spielsituationen, die sich daraus ergeben, berechnen.“

Die Spiele werden auch weiterhin immer komplexer, und damit auch die Anforderungen an die Künstliche Intelligenz. John Comes, Lead Designer bei Gas Powered Games, erläutert dies anhand seines letzten Projekts Supreme Commander.

„Der Spieler hantiert mit 250 Einheiten, drei Technologiestufen und einem komplexen Wirtschaftssystem – das alles auf den größten Karten im Strategie-Genre. Es war für uns eine Riesenherausforderung, dass die KI da mithalten kann.“

KIs müssen schummeln

Die Komplexität moderner Spiele kann eine KI nur dann einigermaßen beherrschen, wenn die Programmierer ihr mit kleinen Tricks unter die Arme greifen. Im Klartext: Nahezu jede KI cheatet!

Die Gegner in Anno 1701 bauen ihre Häuser und Wege zum Beispiel nicht Stück für Stück wie der menschliche Spieler, sondern platzieren vordefinierte Gebäude-Muster – etwa für ein Wohngebiet oder eine Werkzeugproduktion. Die Feinde in Supreme Commander kontrollieren ihre Armeen nicht Einheit für Einheit, sondern grundsätzlich in Gruppen.

Selbst Steve Polge, Lead Designer bei Epic und wahrscheinlich einer der besten KI-Programmierer der Spielebranche, musste bei Unreal Tournament 3 an vielen Stellen tricksen. Er unterstützt etwa die Bot-Wegfindung mit für den Spieler unsichtbaren Markierungen, die bestimmte Routen als ungeeignet für große Fahrzeuge kennzeichnen.

Die große Kunst besteht darin, dass der Spieler von diesen kleinen Schummeleien so wenig wie möglich mitbekommt. So gibt es in Anno 1701 zur Tarnung mehrere Varianten des Werkzeugproduktion-Gebäude-Musters, damit sich die Anordnung von Bergwerk, Eisenschmelze und Schmiede von KI-Insel zu KI-Insel unterscheidet.

Kampagnen machen dumm

Eine gute KI reagiert flexibel und überrascht den Spieler mit immer neuen Verhaltensweisen. Aber genau das wollen die meisten Programmierer verhindern – zumindest in der Kampagne, nach wie vor das Herzstück der meisten Spiele.

„Bei einer Kampagne kann die KI häufig kontraproduktiv sein“, sagt etwa Dirk Steenpass. Er programmierte für Blue Byte die KI von Die Siedler: Aufstieg eines Königreichs. Der sechste Teil der Aufbauspiel-Serie musste viel Kritik einstecken, weil die Gegner keine eigenen Siedlungen errichten und schon zu Missionsbeginn über vorgefertigte und voll ausgebaute Festungen verfügen.

Laut Steenpass war das eine bewusste Entscheidung der Entwickler: „In dem Moment, in dem du Kontrolle abgibst, wird es um ein Vielfaches schwerer, die Kampagne nach deinen Plänen laufen zu lassen.“

Der Anno 1701-Kollege Thomas Stein ergänzt: „Bei den storybasierten Spielen ist es meist gar nicht erwünscht, dass der Computer selbstständig agiert.“ Je mehr die Entwickler die KI also in ein Korsett zwängen, desto leichter wird es für sie, eine Geschichte zu erzählen. Auch die Computergegner müssen sich ans Drehbuch halten, und das geht nur, wenn sie sich beim zehnten Missionsstart genauso verhalten wie beim ersten.

Allheilmittel Skript

Das Lieblingskorsett der KI-Programmierer ist das so genannte „Skript“ – also ein fest vorgegebenes, aber meist besonders aufwändiges Verhalten der Computergegner, das der Spieler durch eine vordefinierte Aktion auslöst.

In Call of Duty 4 betreten Sie die Wiese im Prypiat-Level, schon marschiert die halbe russische Armee auf Sie zu – und zwar jedes Mal. Sie befreien eine schwer beschädigte Radarstation in Supreme Commander, schon fliegt eine Staffel feindlicher Aeon-Bomber heran.

Ein Balanceakt, bei dem viele abstürzen: Wenn man es so spannend, überraschend und abwechslungsreich inszeniert wie in Call of Duty 4, sorgen solche Skripts für die ganz besonderen Momente, denen auch die immer gleich agierende KI nichts anhaben kann.

Wenn man es dagegen so unspektakulär, plump und vorhersehbar macht wie in Supreme Commander, kostet die gezwungenermaßen unflexibel agierende KI eine Menge Spielspaß. Thomas Stein nennt ein weiteres Problem von Skripts: „Es geht häufig sehr viel Interaktivität verloren. Viele Spiele führen dich wie auf Schienen durch die Kampagne. Es fehlt das Gefühl, sich mit wirklich gefährlichen Gegnern zu messen.“

Wo bleiben Emotionen?

Bei der Gegnerintelligenz mag das Story-Argument der Entwickler noch ziehen, bei den sterilen oder unglaubwürdigen Spielwelten vieler Titel versagt es jedoch. Die Auftraggeber in Hellgate wirken ähnlich lebendig wie Litfass-Säulen, The Witcher-Hausbewohner stört es nicht die Bohne, wenn der eingedrungene Held sämtliche Schränke und Truhen plündert.

Die Tristesse im virtuellen Leben ist ein Lieblingsthema für Frank Gwosdz und Serein Pfeiffer. Die beiden entwickeln mit ihrer Firma Artificial seit 2005 KI-Software für Spielestudios. Frank Gwosdz: „Viele Entwickler kümmern sich bei der KI nur um das, was fürs Spielprinzip essentiell ist. Aber wenn man sich zum Beispiel die Herr-der-Ringe-Bücher von Tolkien durchliest, dann geht es darin eben nicht nur um das Essentielle der Handlung. Die Bücher schildern ein ganzes Universum. Erst dadurch kann man ein Gefühl von Lebendigkeit hervorrufen.“

Lebendige Spielwelten machen die Arbeit der KI-Programmierer freilich um ein Vielfaches komplizierter. Schließlich müssen Sie dann nicht nur das Verhalten von Gegnern und Einheiten definieren, sondern auch das von unzähligen Tieren und Nicht- Spieler-Charakteren – am besten noch abhängig vom Wetter und von den Tageszeiten.

Wie schnell das zur Mammutaufgabe werden kann, erläutert Thomas Stein am Beispiel des Gegnerverhaltens von Anno 1701: „Wir mussten zunächst eine lange Liste von Bedingungen erstellen, die eintreffen können. Aus denen ergaben sich jeweils bestimmte Aktionen. Diese Aktionen mussten wiederum für jeden Gegner einzeln konfigurierbar sein und außerdem das Verhältnis zum Spieler sowie das Verhältnis der KI-Spieler untereinander berücksichtigen.“

Ein weiteres Problem dieser so genannten „Environmental AI“: Je glaubwürdiger und realistischer die Spielwelt, desto auffälliger und störender die Unstimmigkeiten. Die Experten von Gamestar zeigen sich etwa allesamt tief beeindruckt von den belebten Städten in Assassin‘s Creed.

Viele Spieler kritisieren jedoch das offensichtlich unlogische Verhalten der Passanten, die einen Mörder offenbar selbst dann nicht erkennen, wenn er mit erhobenem Schwert neben ihnen steht.

Schlechte Planung = schlechte KI

Gut, aber dass lebensnahe KI einen enormen Aufwand bedeutet, wissen die Entwickler doch schon in der Planungsphase? Scheinbar nicht, meint zumindest Dr. Andreas Gerber. Der 33-jährige Diplominformatiker hat am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) promoviert und gemeinsam mit Studienkollegen die Firma Xaitment gegründet, die genau wie Artificial KI-Lösungen für Spielefirmen programmiert.

Seine Erfahrungswerte aus der Praxis: „Bei den meisten Entwicklern werden nur 12 bis 24 Mann-Monate für die KI-Programmierung eingeplant. Es müsste aber mindestens das Fünffache sein.“ (Anm. d. Red.: ein Mann-Monat = ein Angestellter arbeitet einen Monat). Viel zu knapp sei entsprechend auch das Entwicklungs-Budget.

Und tatsächlich: Laut Thomas Stein investierte Related Designs 36 Mann-Monate in die KI-Entwicklung von Anno 1701, Blue-Byte-Programmierer Dirk Steenpass schätzt den Aufwand für Die Siedler: Aufstieg eines Königreichs auf 40 Mann-Monate.

Diese Entwicklungszeiten liegen zwar etwas über den Angaben von Dr. Gerber, stützen aber dennoch seine Aussage, wenn man bedenkt, dass beide Titel eine sehr aufwändige „Environmental AI“ besitzen und zudem mit einem Millionen-Etat entwickelt wurden. Zum Vergleich: Bei Xaitment arbeiten knapp 30 Leute seit zwei Jahren und mit einem Budget von 1,5 Millionen ausschließlich an der Entwicklung einer KI-Engine.

KI muss trainieren

Thomas Stein verdeutlicht: „Es ist sehr schwierig einzuschätzen, wie viel Aufwand die KI erfordert. Auch wir haben das anfangs unterschätzt, konnten aber zum Glück noch rechtzeitig gegensteuern.“

Das klappte vor allem deshalb, weil Anno 1701 schon zu einem sehr frühen Zeitpunkt voll spielbar war. Auch John Comes ließ die KI-Gegner in Supreme Commander monatelang immer wieder gegeneinander antreten, um Schwachstellen ausfindig zu machen.

Alle unsere Experten sind sich sogar einig, dass eigentlich schon der allererste Prototyp eines Spiels über eine rudimentäre KI verfügen sollte. Das ist jedoch nach wie vor die absolute Ausnahme. So gilt es als offenes Branchengeheimnis, dass die KI von Gothic 3 erst wenige Wochen vor dem Verkaufsstart ins Spiel integriert wurde. Auch bei der ersten Präsentation von Command & Conquer 3 verschoben die Entwickler nur ein paar Einheiten über feindfreie Schlachtfelder. Die logische Konsequenz: „Viele Teams merken erst viel zu spät, dass ihre KI nicht wie gewünscht funktioniert. Und dann wird eben das meiste geskriptet“, so Dr. Andreas Gerber.

Falsche Prioritäten

Also alles nur eine Frage der Planung und der Ressourcen? Nicht ganz! Vielen Entwicklern fehlt es bereits am Willen, mehr Aufwand in die KI-Entwicklung zu stecken. Dirk Steenpass von Blue Byte gibt offen zu: „Die Siedlungs-KI war durchaus angedacht. Sie stand aber nicht ganz oben auf der Prioritätenliste und war einer der Punkte, die letztendlich hinten runter gefallen sind.“

Frank Gwosdz von Artificial kritisiert: „Es gibt wohl kaum einen Spielaspekt, der von den Entwicklern so stiefmütterlich behandelt wird wie die Künstliche Intelligenz.“

Warum diese Missachtung? Auf den Punkt gebracht: Weil KI keine Spiele verkauft. Das tun spektakuläre Grafik, innovative Spielelemente, coole Charaktere, ja sogar Lizenzen. Sie fallen als Erstes auf, auf sie legen die Publisher wert, sie machen sich prima in der Werbung. Aber hätten signifikant mehr Leute zu Command & Conquer 3 gegriffen, wenn der Ernter schlauer gewesen wäre? Wohl kaum.

Entsprechend setzen die Entwickler ihre Prioritäten. Motto: Über die KI kann man später noch nachdenken. Ein Irrtum, wie Dirk Steenpass bestätigt: „Wenn du eine gute KI haben willst, dann muss die von Anfang an im Konzept stehen, noch bevor du überhaupt die erste Zeile Programmcode tippst.“

Aus ihrem Schattendasein kann die KI nur dann hervortreten, wenn man sie zum zentralen Spielelement befördert. So geschehen bei Assassin’s Creed: Die belebten Städte mit Hunderten Passanten waren von Anfang an ein zentrales Konzept – für den Publisher, für das Marketing und damit auch für den Entwickler. 15 Programmierer und Designer haben laut Ubisoft an der KI des Schleichspiels gearbeitet.

KI verbessern? Zu riskant!

Die gebremste Euphorie der Entwickler beim Thema Künstliche Intelligenz hat häufig noch einen weiteren Grund: das Risiko. Denn jede KI-Schraube, an der die Designer drehen, hat massive Auswirkungen auf das gesamte Programmkonstrukt.

Vor allem die Spielbalance gerät schnell ins Wanken. Wenn etwa unser Ernter plötzlich hochintelligent und vollautomatisch sämtliche erreichbaren Tiberiumfelder leerräumt, könnte das Rohstoff-Management von Command & Conquer zu anspruchslos werden.

Die Gegner nutzen in einem Ego-Shooter auf einmal intelligent jede Deckungsmöglichkeit? Prima, aber schon ist das komplette Missionsdesign für die Tonne, weil niemand mehr die Massenschießerei im ersten Auftrag überlebt. „Wenn du eine KI komplett neu entwickeln musst, bedeutet das immer viel Improvisation. Das kostet Zeit und Nerven“, verdeutlicht Thomas Stein.

Und Zeit ist Geld, besonders in der Spielebranche. Denn in kaum einer anderen Industrie lassen sich die Finanzen so schwer planen – verschiebt sich ein Spiel nur um wenige Monate, kann das für ein kleines Team schon die Pleite bedeuten. Also lassen die meisten lieber die Finger von größeren KI-Innovationen.

Technische Verbesserungen lassen sich bedeutend besser kalkulieren, sowohl bei den Kosten als auch beim Entwicklungsrisiko. Denn ob der Ernter nun aus hundert Pixeln oder aus fünftausend Polygonen besteht, hat auf die Arbeit der Missions- und Spieldesigner wenig bis gar keinen Einfluss.

Die Konsequenz, vor allem bei Spieleserien mit einer hohen Erscheinungsfrequenz: »Grafik und Physik werden weiterentwickelt, die KI aber nur aus dem Vorgänger übernommen«, so Dr. Andreas Gerber. Jeder langjährige Fifa- und Need for Speed-Spieler dürfte dies bestätigen können.

Unfairer Wettstreit

Die unterschiedliche Priorisierung von Technik- und KI-Entwicklung wird künftig immer größere Probleme aufwerfen. Denn je besser die Grafik, realistischer die Physik und aufwändiger die Spielumgebungen, desto größer werden auch die Anforderungen an die Künstliche Intelligenz. Der Held Altair kann in Assassin’s Creed jedes Gebäude erklimmen, also müssen auch seine Feinde außergewöhnliche Kletterkünste beherrschen. Und weil Unreal Tournament 3 riesige Fahrzeuge wie den Dark Walker auffahren soll, musste Steve Polge der Bot-KI erstmals das Wenden in drei Zügen beibringen.

Ein Wettstreit mit ungleichen Voraussetzungen. Während allein in den Grafikabteilungen der größeren Spieleentwickler häufig mehr als 20 Designer sitzen, beschäftigt kaum ein Team mehr als fünf KI-Programmierer. Das Beispiel Crysis zeigt die Folgen: Laut Crytek-Chef Cevat Yerli waren vor allem Schwierigkeiten mit der Künstlichen Intelligenz der Hauptgrund, dass sich die Veröffentlichung des Ego-Shooters um mehr als ein halbes Jahr verzögerte. Es sei erheblich schwieriger gewesen als erwartet, den Gegnern den Umgang mit der komplett zerstörbaren Spielumgebung beizubringen.

Der vernachlässigte Leistungsfresser

Auch bei der Hardwareunterstützung fühlen sich die KI-Programmierer benachteiligt. „Hinter der grafischen Entwicklung stehen Technologiesprünge bei den Systemkomponenten. Diese technische Entwicklung gibt es auf der KI-Seite nicht“, beschwert sich etwa Dirk Steenpass. Mittlerweile veröffentlichen Nvidia und ATI pro Jahr mindestens eine neue Grafikkarten-Generation. Selbstverständlich mit der doppelten Menge an Arbeitsspeicher und spektakulären neue Spezialeffekten, die für die Designer quasi auf Knopfdruck bereitstehen.

Realistisches Wasser? Kann heutzutage jedes Shareware-Spiel. Überstrahleffekte dank High Dynamic Range Rendering? Machen moderne Grafikkarten fast schon automatisch. Und die Berechnungen für die Künstliche Intelligenz? Wie schon zu C64-Zeiten muss das auch heute noch der Prozessor übernehmen.

Obwohl auch die CPUs immer leistungsfähiger werden, bleiben sie dennoch Allrounder. Und weil die Programmierer die Herausforderungen einer Künstlichen Intelligenz gern unterschätzen, planen Sie oft zu wenige Systemressourcen für die entsprechenden Algorithmen ein. Auch hier verfügt Dr. Andreas Gerber über Erfahrungswerte: „Die meisten Entwickler sagen: ›KI darf nur rund fünf Prozent der Rechenleistung belegen.‹ Mindestens das Doppelte wäre aber nötig.“

Hoffnungsschimmer Multi-Core

Immerhin wird der Trend zu Multikern-Prozessoren das Hardware-Problem entschärfen. John Comes erklärt warum: „Heutzutage müssen wir die Möglichkeiten der KI häufig aus Performance- Gründen einschränken – etwa, wie oft sie Informationen über die Welt sammeln darf. Sobald wir einen gesamten CPU-Kern nur der KI widmen können, werden wir auch überzeugendere Ergebnisse erzielen.“

Bis es soweit ist, werden sich Spieler aber sicherlich noch über viele dumme Gegner ärgern. Denn im Gegensatz zur Grafik kann man die Künstliche Intelligenz nur schlecht skalieren. Schließlich muss sich der Ernter auf einer High-End-Machine genauso „schlau“ verhalten wie auf einem PC, der gerade eben die Mindestanforderungen erfüllt. Und damit Johns Traum vom eigenen KI-Prozessor in Erfüllung geht, bedarf es schon PCs mit acht CPU-Kernen.

Intel arbeitet allerdings schon daran und geht bei seinen Produktpräsentationen mittlerweile auch verstärkt auf die Anforderungen von Künstlicher Intelligenz ein, unter anderem auch mit Demos von Xaitment. Bis jedoch Acht-Kern-Maschinen in Deutschland flächendeckend verfügbar sind, dürfte es noch mindestens drei Jahre dauern.

Getippte Intelligenz

Grafiker modellieren und animieren ihre Monster mit leistungsstarken Programmen wie 3D Studio Max, Leveldesigner bauen ihr Schlachtfeld mit dem Editor der lizenzierten Unreal Engine 3. Und die KI-Ent- wickler? Die meisten tippen ihre Wegfindungsroutinen und Angriffsstrategien nach wie vor direkt in den Programmcode – eigentlich unvorstellbar in Zeiten, in denen es für jedes noch so unbedeutende Ipod-Tuning eine eigene Software gibt.

Frank Gwosdz analysiert: „Was der KI-Entwicklung besonders fehlt, sind Tools und Software-Lösungen, mit denen man effizient arbeiten kann.“ Abstrakte Programmcodes machen es zudem für den Rest des Teams erheblich schwieriger, die Funktionsweisen, Abläufe und vor allem spielerischen Auswirkungen der Künstlichen Intelligenz nachvollziehen zu können.

Es sei wichtig, so Dr. Andreas Gerber, „dass auch Game Designer mit den Tools arbeiten können und nicht nur die Programmierer.“Vor allem größere Teams greifen deshalb zur Selbsthilfe und entwickeln eigene KI-Editoren – aktuell etwa Ascaron Studio 2 für Sacred 2. Das dürfte einer der Gründe sein, warum das Action-Rollenspiel gerade auf den September 2008 verschoben wurde. Kleinere Teams können sich solchen Aufwand nicht leisten, die Leidtragende ist erneut die KI.

Seit zwei bis drei Jahren arbeiten einige wenige Firmen wie Artificial und Xaitment zwar daran, diese Softwarelücken zu schließen. Ob sie sich langfristig durchsetzen können oder die Spielestudios weiterhin bevorzugt auf interne Lösungen setzen, bleibt jedoch abzuwarten.

Sie können es nicht besser

Hinter den zahlreichen Problemen mit mangelhafter Künstlicher Intelligent steckt ein simples Grunddilemma: Es fehlt das Know-how. Zwar gibt es jede Menge brillante Programmierer in der Branche, aber nur wenige ausgebildete KI-Experten. Denn das erfordert ein jahrelanges, spezialisiertes Studium der Informatik und Kenntnisse in Fachgebieten wie neuronalen Netzen oder Planungssystemen.

Bei der Entwicklung von Supreme Commander war John Comes laut eigener Aussage der einzige Programmierer mit KI-Erfahrungen. Auch Dirk Steenpass von Blue Byte gibt zu: „Ein Großteil unseres Teams musste sich erstmal in die Materie einarbeiten.“ Eine undankbare Aufgabe bei einem Thema, das andere jahrelang studieren.

Das generelle Nachwuchsproblem der Branche schlägt hier besonders hart zu, und dafür machen unsere Experten auch die deutschen Universitäten verantwortlich. Die gehören zwar in vielen Bereichen der KI-Forschung zur Weltspitze, lassen Spiele dabei jedoch generell außen vor. Unverständlich, denn eigentlich, so die einhellige Meinung unserer Gesprächspartner, seien Computerspiele das ideale Forschungsumfeld. Man braucht kaum Ressourcen und bekommt schnelle Resultate.

Aber, so Dr. Andreas Gerber: „Ein Großteil der Professoren ist sehr konservativ und möchte mit Computerspielen prinzipiell nichts zu tun haben.“ Immerhin: Diese Mauer der Ablehnung bekommt erste Risse. So hat etwa die Universität des Saarlandes in diesem Jahr ein virtuelles Labor für Multimedia und Künstliche Intelligenz eingerichtet. Und Microsoft beliefert immer mehr Universitäten mit Xbox-360-Entwicklerkits, die dort in Praxisseminaren eingesetzt werden.

Alte Vorbilder

Trotz all der mehr oder weniger nachvollziehbaren Probleme erscheinen zum Glück immer mal wieder Spiele, die zeigen wie es geht. Besonders F.E.A.R., ironischerweise schon über zwei Jahre alt, hat die Experten von Gamestar nachhaltig beeindruckt.

Der Grusel-Shooter arbeitet mit einem ausgeklügelten KI-Planungssystem, das dynamisch die Situation analysiert – samt eigener Lebenspunkte, Position des Helden und Spielumgebung. Also können die Feinde durch das Fenster flüchten, eine Couch als Deckung nutzen und sich bei jedem Feuergefecht anders verhalten.

Warum ist das nach wie vor eine Ausnahmeerscheinung im Action-Genre? Thomas Stein vermutet einen Grund für die KI-Stärke von F.E.A.R. in den sehr kompakten und kargen Räumen: „Die Bots müssen hier wesentlich weniger Informationen verarbeiten als etwa in Crysis.“ Der Entwickler Monolith schweigt sich über seine KI-Routinen aus. Dr. Andreas Gerber behauptet jedoch, dass ein komplexes Planungssystem wie in F.E.A.R. mit entsprechendem Entwicklungsaufwand auch in aktuellen Spielen technisch ohne Weiteres möglich sei.

Ein wenig außer Konkurrenz fahren die Rennspiele, schließlich benötigt die KI hier prinzipiell nicht viel mehr als eine ausgeklügelte Wegfindung. Dennoch verdienen sie ein Extralob: Im KI-Wertungsschnitt liegen sie deutlich höher als alle anderen Genres. Denn beim Spielen denken wir nun mal nicht darüber nach, wie aufwändig die KI-Programmierung war. Uns interessiert nur, dass unsere Gegner in Flatout 2 gerade die komplette Streckenumgebung zerlegen oder in Juiced 2 einen nachvollziehbaren Fehler machen, weil wir sie permanent unter Druck gesetzt haben.

Eine intelligente Zukunft?

Von einzelnen positiven Ausreißern wie F.E.A.R. und dem Sonderfall Rennspiel abgesehen sieht die nähere Zukunft der Künstlichen Intelligenz genauso düster aus wie die Gegenwart. Publisher und Entwickler werden weiterhin mehr in die Technik- als in die KI-Entwicklung investieren. Designer werden den Aufwand weiterhin unterschätzen und verstärkt auf Skripts setzen. Und bis vermehrt KI-Spezialisten den Weg von der Uni zu den Spieleentwicklern finden, werden uns noch viele dumme Feinde entgegenstürmen.

Aber wo viel Schatten ist, gibt es auch Licht: Immer wieder werden wir auch Spiele entdecken, die etwas Neues wagen und die Evolution der Künstlichen Intelligenz ein Stückchen vorantreiben.

Unser Schwesterpublikation GameStar wird das Thema Künstliche Intelligenz weiterhin kritisch begleiten, dumme Gegner bloßstellen und schlaue Gegner gebührend würdigen, wie in dieser Ausgabe im Test von Juiced 2. Der Ernter darf sich also auch in Command & Conquer 4 auf unsere ganz besondere Aufmerksamkeit freuen. (mst)

Der Artikel stammt aus unserer Schwesterpublikation Gamestar.