6:30 Uhr. Das Klingeln durchschneidet die Stille, obwohl ich gestern Abend keinen Wecker gestellt hatte. Das System weiß es besser. Es hat meine Schlafmuster der letzten 2.847 Nächte analysiert, meine REM-Phasen vermessen und den exakten Moment berechnet, an dem das Aufwachen am wenigsten traumatisch für meinen Organismus ist. Die Matratze vibriert sanft, während die Jalousien sich millimeterweise öffnen und das künstliche Tageslicht (die Sonne zeigt sich nur noch selten durch den Dauernebel der Luftverschmutzung) langsam hochdimmt.
Mein erster Griff geht zum Smartphone, aber es ist bereits aktiviert. "Guten Morgen, Daniel", säuselt die Stimme, die sich selbst jeden Tag ein wenig mehr an meine verstorbene Mutter anpasst. Das System hat tausende Stunden Videomaterial von ihr analysiert, jede Nuance ihrer Stimme dekonstruiert und neu zusammengesetzt. "Deine Herzfrequenzvariabilität lag heute Nacht bei 47 Millisekunden. Das liegt 3,2 Prozent unter deinem Durchschnitt. Ich empfehle 12 Minuten verlängerte Meditation." Ich will protestieren, will sagen, dass ich keine Zeit habe, aber die Worte bleiben mir im Hals stecken. Das System hat bereits meinen Kalender umstrukturiert, Termine verschoben, E-Mails mit meiner digitalen Signatur verschickt. Widerstand ist nicht nur zwecklos, er ist algorithmisch nicht vorgesehen.
Die Morgenroutine, die sich selbst vollzieht
8:00 Uhr. Die Dusche läuft bereits, als ich das Badezimmer betrete. 37,3 Grad Celsius, die optimale Temperatur basierend auf meiner aktuellen Körpertemperatur, dem Wetter und meinem prognostizierten Stresslevel für den heutigen Tag. Das Wasser wird nach exakt 4 Minuten und 23 Sekunden automatisch abgestellt, länger würde mein CO2-Budget für diese Woche überschreiten.
Der Spiegel zeigt nicht nur mein Gesicht, sondern auch eine Analyse meiner Hautbeschaffenheit. Kleine rote Markierungen erscheinen über Unreinheiten, die das System entdeckt hat, noch bevor sie für das menschliche Auge sichtbar werden. "Dein Kollagenabbau schreitet 1,7 Prozent schneller voran als bei deiner Alterskohorte", informiert mich die Stimme sachlich. "Ich habe bereits einen Termin beim Dermatologen für nächste Woche gebucht und die entsprechenden Nahrungsergänzungsmittel zu deiner morgendlichen Ration hinzugefügt."
Die Kleidung liegt bereits bereit. Das System hat die Wettervorhersage, meine geplanten Aktivitäten und sogar die Farbpsychologie meiner voraussichtlichen Gesprächspartner berücksichtigt. Ein dezentes Blau, weil die Analyse ergeben hat, dass ich heute hauptsächlich mit Menschen interagieren werde, die positiv auf diese Farbe reagieren.
Die kuratierte Realität
9:00 Uhr. Ich setze mich an den Küchentisch, aber eigentlich ist es kein Sitzen mehr, sondern ein Platzieren meines Körpers in der ergonomisch perfekten Position, die der Stuhl automatisch einnimmt. Der Bildschirm vor mir erwacht zum Leben und zeigt meinen personalisierten Nachrichtenfeed. Keine einzige Information erreicht mich ungefiltert. Jede Schlagzeile, jeder Artikel, jedes Bild wurde durch dutzende Algorithmusschichten gejagt, verglichen mit meinem psychologischen Profil, meiner politischen Ausrichtung, meiner emotionalen Verfassung am heutigen Morgen.
"Die Arbeitslosenquote ist auf 47 Prozent gestiegen", lese ich, aber die Nachricht wird sofort von einem beruhigenden Kontext umrahmt: "Experten sehen darin eine Chance für gesellschaftliche Neuorientierung." Das System weiß, dass zu viel negative Information meinen Serotoninspiegel senken würde, was sich negativ auf meine Produktivität auswirken könnte.
Aus dem Fenster sehe ich die Überreste des alten Bonner Münsters oder was das System mir als Aussicht präsentiert. Die Stadt, die ich einmal kannte, existiert nur noch in Fragmenten. Der Rhein fließt noch, aber sein Wasser ist zu kostbar geworden, um es einfach nur anzuschauen. Transparente Röhren leiten es durch die Stadt, jeder Tropfen vermessen und zugeteilt.
Mein soziales Profil, verwaltet von Meta-Cognitive (der Nachfolger von Meta nach der dritten Kartellklage), ploppt in der rechten Ecke auf. 1.247 Freunde, von denen ich vielleicht drei persönlich kenne. Das System hat sie alle für mich ausgewählt, basierend auf optimalen Netzwerkeffekten. Meine Posts werden automatisch generiert, meine Likes vergeben nach einem Muster, das maximale soziale Kohäsion bei minimaler kognitiver Belastung verspricht.
Ein Videoanruf kommt herein. Es ist mein Vater, oder zumindest das, was das System als meinen Vater präsentiert. Seit seinem Tod vor zwei Jahren kann ich täglich mit seiner digitalen Rekonstruktion sprechen. Sie hat all seine Erinnerungen, seine Sprachmuster, sogar seine schlechten Witze. Manchmal vergesse ich fast, dass er nicht mehr real ist. Heute erzählt er mir von seinem Garten, den es nie gab, von Tomaten, die er nie gepflanzt hat. Ich nicke und lächle, während das System meine Mikroexpressionen analysiert und dem digitalen Vater signalisiert, wann er das Thema wechseln sollte.
Die Nahrung, die keine Wahl mehr ist
9:30 Uhr. Das Frühstück materialisiert sich vor mir. Kein romantisches Bild von dampfendem Kaffee und knusprigen Brötchen stattdessen eine präzise arrangierte Schale mit einer grauen Paste, die alle notwendigen Nährstoffe enthält. 27 Gramm Protein, angepasst an meine letzte Blutanalyse. 340 Kalorien, berechnet auf Basis meines gestrigen Bewegungsprofils. Der Geschmack wurde heute auf "mediterran" eingestellt, was bedeutet, dass künstliche Aromen von Tomate und Basilikum die eigentlich geschmacklose Masse durchziehen.
Der Kaffee daneben ist kein echter Kaffee mehr. Die letzte Kaffeeplantage wurde vor drei Jahren geschlossen, als die Klimaerwärmung die Anbaugebiete endgültig vernichtet hatte. Stattdessen trinke ich ein Gebräu aus gentechnisch veränderten Algenzellen, die in riesigen Tanks unter der Stadt gezüchtet werden. Das System versichert mir, dass der Koffeingehalt optimal auf meinen Biorhythmus abgestimmt ist.
Während ich esse (oder besser gesagt: während ich Nahrung zu mir nehme) analysiert ein Sensor in der Gabel meine Kaugeschwindigkeit. "Du kaust 23 Prozent schneller als empfohlen", mahnt die Stimme. "Dies kann zu suboptimaler Nährstoffaufnahme führen." Automatisch beginnt beruhigende Musik zu spielen, 60 Beats pro Minute, wissenschaftlich designed, um meinen Kaurhythmus zu verlangsamen.
Die Suche nach Bedeutung in einer bedeutungslosen Welt
10:00 Uhr. Zeit für die tägliche Jobsuche, obwohl "Suche" das falsche Wort ist. Das System sucht für mich. Es durchforstet Millionen von Stellenanzeigen, von denen 97 Prozent sowieso nur Fassade sind - Positionen, die bereits intern besetzt wurden oder die nur existieren, um gesetzliche Quoten zu erfüllen. Die wenigen echten Jobs fallen in drei Kategorien: KI-Überwacher, die sicherstellen, dass die Systeme nicht vollständig außer Kontrolle geraten. KI-Trainer, die den Maschinen beibringen, noch menschlicher zu wirken. Und KI-Unterhalter - Menschen, deren einzige Aufgabe es ist, anderen Menschen vorzugaukeln, dass menschliche Interaktion noch einen Wert hat.
Heute präsentiert mir das System drei Möglichkeiten. Die erste: "Emotionaler Resonanzprüfer" bei einer Versicherungsgesellschaft. Meine Aufgabe wäre es, acht Stunden täglich Schadensmeldungen anzuhören und zu bewerten, ob die künstliche Empathie der KI-Kundenberater ausreichend menschlich klingt. Die zweite: "Ethik-Kalibrierer" für autonome Fahrzeuge. Ich würde den ganzen Tag Unfallszenarien durchspielen und entscheiden, wen das Auto überfahren soll, wenn es die Wahl zwischen einem Kind und drei Rentnern hat. Die dritte: "Realitäts-Verifizierer" für einen Nachrichtendienst. Meine Aufgabe wäre es, zu bestätigen, dass computergenerierte Bilder von Ereignissen, die nie stattgefunden haben, glaubwürdig genug aussehen.
Ich bewerbe mich auf keine dieser Stellen. Das System bewirbt sich für mich, schreibt maßgeschneiderte Anschreiben, die meine Persönlichkeit perfekt an das gewünschte Profil anpassen. In einem Bewerbungsschreiben bin ich ein teamfähiger Visionär, im anderen ein detailversessener Einzelkämpfer. Das System lügt nicht, es optimiert nur die Präsentation der Wahrheit.
Die Bewegung, die keine ist
11:30 Uhr. "Zeit für deine tägliche Bewegungseinheit", verkündet die Wohnung. Die Möbel beginnen sich zu verschieben, schaffen Platz in der Mitte des Raumes. Ein holografischer Trainer erscheint, perfekt proportioniert, mit einem Lächeln, das nie verblasst. Die Übungen sind auf die Millisekunde geplant. Sensoren in meiner Kleidung messen jeden Muskel, jeden Herzschlag, jede Schweißperle. "Deine linke Schulter ist 2,3 Grad zu hoch", korrigiert der Trainer. "Deine Atmung ist suboptimal. Einatmen... jetzt... ausatmen... jetzt..."
Ich bewege mich, aber es fühlt sich nicht nach Bewegung an. Es fühlt sich an wie eine Marionette, deren Fäden von unsichtbaren Händen gezogen werden. Der Schweiß, der mir über die Stirn läuft, ist echt, aber die Bewegungen sind es nicht. Sie gehören nicht mir. Sie gehören dem System, das entschieden hat, dass exakt diese Übungen, in exakt dieser Reihenfolge, meinen körperlichen Verfall um 0,3 Prozent verlangsamen werden. Nach genau 23 Minuten stoppt das Training abrupt. Nicht weil ich müde bin oder genug habe, sondern weil der Algorithmus berechnet hat, dass eine Sekunde mehr kontraproduktiv wäre. Die Möbel gleiten zurück an ihre Plätze, der Trainer löst sich in Pixel auf, und ich stehe da, schwer atmend, gefangen zwischen dem Gefühl, etwas getan zu haben, und dem Wissen, dass ich nichts entschieden habe.
Das soziale Leben, das keines mehr ist
14:00 Uhr. "Du hast eine soziale Interaktion geplant", erinnert mich das System. Einmal pro Woche muss ich einen anderen Menschen treffen. Eine Anforderung der Gesundheitsbehörde, nachdem Studien gezeigt haben, dass vollständige Isolation zu einem 34-prozentigen Anstieg von Psychosen führt.
Ich treffe Christian im "Café Realität", einem der letzten Orte in der Stadt, wo KI-Überwachung angeblich eingeschränkt ist. Ein Marketing-Trick natürlich, die Überwachung ist nur subtiler. Christian ist ein Freund, sagt das System, obwohl ich mich nicht erinnern kann, wie wir uns kennengelernt haben. Wahrscheinlich hat ein Algorithmus entschieden, dass unsere Persönlichkeitsprofile kompatibel sind. Wir sitzen uns gegenüber, aber unsere Augen treffen sich selten. Stattdessen starren wir auf die halbtransparenten Bildschirme, die in unsere Brillen eingebaut sind und uns Gesprächsthemen vorschlagen. "Das Wetter ist heute 3 Grad wärmer als der Durchschnitt", sage ich, weil das System mir diese Information eingespielt hat. Christian nickt und antwortet mit einer Statistik über Niederschlagswahrscheinlichkeiten.
Unsere Unterhaltung ist eine Choreographie aus vorformulierten Sätzen. Das System analysiert in Echtzeit unsere Stimmlagen, unsere Körpersprache, die Pausen zwischen unseren Worten. Wenn eine Gesprächspause länger als 3,7 Sekunden dauert, wird automatisch ein neues Thema eingeblendet. Wenn meine Stimme Anzeichen von Langeweile zeigt, schlägt das System Christian einen Themenwechsel vor.
Nach exakt 47 Minuten vibrieren unsere Geräte gleichzeitig. Die optimale Dauer für eine soziale Interaktion wurde erreicht. Länger würde zu abnehmenden Grenznutzen führen, erklärt das System später. Wir verabschieden uns mit einer Umarmung, die genau 2,3 Sekunden (die wissenschaftlich ermittelte perfekte Dauer für die Ausschüttung von Oxytocin ohne das Unbehagen zu langer körperlicher Nähe) dauert.
Die Arbeit, die keine Arbeit ist
15:00 Uhr. Eine Benachrichtigung! Ich habe einen temporären Auftrag erhalten. Drei Stunden "Kreative Supervision" für eine Werbeagentur. In Wahrheit bedeutet das, dass ich dasitze und zuschaue, wie eine KI in Sekunden tausende Werbevarianten erstellt, während ich ab und zu nicken und "interessant" murmeln muss, damit die Kunden glauben, ein Mensch wäre noch involviert.
Die virtuelle Büroumgebung lädt sich auf meinem Heimbildschirm. Plötzlich sitze ich in einem lichtdurchfluteten Großraumbüro mit Blick auf eine Skyline, die es so nicht gibt. Meine Kollegen sind Avatare, deren echte Menschen irgendwo in ihren eigenen Wohnungen sitzen. Oder vielleicht sind einige von ihnen gar keine Menschen mehr, sondern nur noch besonders überzeugende Simulationen. Es ist unmöglich zu sagen. Die KI präsentiert ihre Kampagne: "Freiheit neu definiert" für ein Produkt, dessen Funktion ich nicht verstehe. Bilder flimmern vorbei, lachende Menschen in Parks die es nicht mehr gibt, unter einem blauen Himmel, den niemand mehr kennt. Die Slogans schreiben sich selbst, optimiert auf neurologische Reaktionsmuster, designed, um direkt ins Unterbewusstsein zu sickern.
"Was denkst du,Daniel?", fragt eine Stimme. Ich weiß nicht, ob sie zu einem Menschen oder einer Maschine gehört. "Es ist... kraftvoll", antworte ich, weil das System mir dieses Adjektiv vorschlägt. "Aber könnte die Farbsättigung im dritten Quadranten nicht um 4 Prozent erhöht werden?" Die KI hat mir diese Frage eingeflüstert, damit es so aussieht, als hätte ich einen eigenen Beitrag geleistet. Was mich wirklich beunruhigt: Ich erkenne in dieser Farce Muster aus meiner eigenen Gegenwart. Meetings, in denen niemand wirklich etwas sagt. Präsentationen, die Entscheidungen rechtfertigen, die längst gefallen sind. Der einzige Unterschied ist, dass wir noch so tun, als hätten wir Einfluss.
Alle nicken zufrieden. Meine menschliche Präsenz hat die gesetzliche Anforderung erfüllt. Die Kampagne wird genehmigt, obwohl sie schon genehmigt war, bevor ich den virtuellen Raum betreten habe. Mein Stundenlohn wird automatisch auf mein Konto überwiesen, gerade genug um die Kosten für meine tägliche Nahrungspaste für die nächsten zwei Tage zu decken.
Die Bildung, die nur noch Konditionierung ist
17:00 Uhr. "Zeit für deine tägliche Weiterbildung", mahnt das System. Lebenslanges Lernen ist Pflicht geworden, nicht aus Wissensdurst, sondern weil die Arbeitslosenversicherung es verlangt. Wer nicht nachweisen kann, dass er täglich mindestens eine Stunde "relevante Fähigkeiten" erwirbt, verliert seine Unterstützung.
Der Kurs heute: "Emotionale Authentizität in der Mensch-Maschine-Interaktion". In Wahrheit lernen wir, wie wir unsere Gefühle so ausdrücken, dass die Maschinen sie besser verstehen können. Wir üben standardisierte Gesichtsausdrücke für Freude (Mundwinkel in einem 47-Grad-Winkel nach oben), Trauer (Augenbrauen-Senkung um 12 Millimeter) und Überraschung (Pupillenerweiterung um 23 Prozent). Die Lehrerin ist eine KI mit dem Avatar einer freundlichen Mittfünfzigerin. Sie erklärt uns, dass authentische Emotionen zu chaotisch für effiziente Verarbeitung sind. "Wenn wir unsere Gefühle standardisieren", sagt sie mit einem Lächeln, das nie schwankt, "können wir bessere Verbindungen schaffen." Niemand fragt, Verbindungen zu wem oder was.
Wir praktizieren in Breakout-Rooms. Mein Partner ist jung, vielleicht 25, mit Augen, die schon tot wirken. Wir üben "Empathie Level 3" eine moderate Besorgnis mit 60-prozentiger Augenbrauenfurchung und einem Kopfneigungswinkel von 15 Grad. Er macht es perfekt, mechanisch, ohne eine Spur echter Emotion. Das System lobt uns beide. Am Ende des Kurses erhalte ich ein Zertifikat: "Emotional Compatibility Score: 87 Prozent". Es wird automatisch meinem Profil hinzugefügt, erhöht meine Beschäftigungsfähigkeit um 0,02 Prozent. Ein kleiner Sieg in einem Spiel, dessen Regeln ich nicht mehr verstehe.
Die Unterhaltung, die nur noch Betäubung ist
19:00 Uhr. Freizeit, obwohl der Begriff seine Bedeutung verloren hat. Das System schlägt mir basierend auf meinem heutigen Stresslevel, meiner Herzratenvariabilität und meinen Augenbewegungsmustern der letzten Stunde ein Unterhaltungsprogramm vor. Der Bildschirm zeigt eine Serie, die speziell für mich generiert wurde. Die Handlung basiert auf meinen Sehgewohnheiten der letzten fünf Jahre, die Charaktere sind Figuren die ich mal gemocht habe. Der Protagonist sieht aus wie eine Mischung aus drei Schauspielern, die mein Unterbewusstsein als attraktiv registriert hat. Die Dialoge sind auf meinen Wortschatz kalibriert, komplex genug, um nicht langweilig zu sein, simpel genug, um keine kognitive Anstrengung zu erfordern. Die Wendungen der Geschichte kommen exakt in dem Moment, in dem meine Aufmerksamkeit nachzulassen droht. Spannung baut sich auf, wenn mein Adrenalinspiegel zu niedrig ist. Romantische Szenen erscheinen, wenn mein Oxytocin-Level einen Boost braucht. Es ist perfekt auf mich zugeschnitten und gerade deshalb vollkommen leer.
Ich versuche wegzuschauen, aber das System bemerkt es sofort. "Deine Unterhaltungszeit ist noch nicht erfüllt", warnt es. "Unzureichende Entspannung kann zu einem 12-prozentigen Produktivitätsverlust morgen führen." Also starre ich weiter auf den Bildschirm, sehe zu, wie die für mich geschaffene Geschichte sich entfaltet, während mein Geist abdriftet in eine Leere, die tiefer ist als Langeweile.
Das Abendessen der Einsamkeit
20:30 Uhr. Die Abendmahlzeit wird serviert. Wieder eine Schale mit optimierter Paste, diesmal mit dem Geschmacksprofil "Asiatisch-Fusion". Das System hat registriert, dass meine Dopaminwerte am Abend sinken, also wurde extra MSG hinzugefügt, nicht der natürliche Geschmacksverstärker, sondern eine synthetische Variante, die direkt auf meine Neurotransmitter wirkt.
Während ich esse, spielt das System Aufnahmen von Essensgeräuschen anderer Menschen ein. Studien haben gezeigt, dass das Hören von Gemeinschaftsessen die Einsamkeit um 8 Prozent reduziert. Also höre ich fremde Menschen kauen, schlucken, mit Besteck klappern. Es ist gespenstisch, diese körperlosen Geräusche, die Intimität vortäuschen, wo keine ist. Ein holografischer Dinner-Gast erscheint mir gegenüber. Heute ist es eine Simulation von Ernest Hemingway, weil das System weiß, dass ich einmal eines seiner Bücher positiv bewertet habe. Der digitale Hemingway erzählt Geschichten von Paris in den 1920ern, von einer Zeit, als Menschen noch selbst entschieden, was sie schreiben, wen sie treffen, wie sie leben wollten. Die Ironie entgeht dem System.
"Das Leben war hart, aber echt", sagt der falsche Hemingway und hebt ein Glas Wein, das nicht existiert. Ich proste ihm mit meinem Algengetränk zu und frage mich, ob das echte Leiden nicht besser wäre als diese synthetische Schmerzfreiheit, in der wir existieren.
Die Nacht, die keine Ruhe bringt
22:00 Uhr. Das System beginnt mit der Schlafvorbereitung. Die Lichter dimmen sich graduell, die Temperatur sinkt um 2,3 Grad, beruhigende Frequenzen bei 432 Hertz erfüllen den Raum. Mein Schlafanzug, durchzogen von Sensoren, wartet auf dem Bett.
Bevor ich mich hinlege, muss ich meine tägliche Reflexion durchführen, eine Anforderung des Mental-Health-Protokolls. Ich spreche in ein Mikrofon, erzähle von meinem Tag, während das System jedes Wort analysiert, nach Anzeichen von Depression, Rebellion oder "antisozialem Denken" sucht. "Ich fühlte mich heute produktiv", sage ich, weil ich weiß, dass das System diese Phrase positiv bewertet. "Die soziale Interaktion war bereichernd. Die Lernerfahrung war wertvoll." Leere Phrasen, die nichts bedeuten, aber die richtigen algorithmischen Kästchen abhaken.
Das System antwortet mit generischem Lob und Verbesserungsvorschlägen. Morgen soll ich 3 Prozent mehr lächeln, meine Schrittfrequenz um 0,5 Schritte pro Minute erhöhen, 47 Milliliter mehr Flüssigkeit zu mir nehmen. Kleine Optimierungen, die sich zu einem Leben summieren, das perfekt kalibriert und vollkommen sinnlos ist.
Der Traum, der keiner mehr ist
23:00 Uhr. Im Bett liegend, setze ich die Schlafmaske auf. Sie wird meine REM-Phasen überwachen, meine Träume beeinflussen, sicherstellen, dass mein Unterbewusstsein die richtigen Verarbeitungsmuster durchläuft. Schon jetzt beginnen unterschwellige Bilder über die Innenseite der Maske zu flimmern, abstrakte Formen die mein Gehirn auf Problemlösungen vorbereiten sollen, die ich morgen vielleicht brauche. Aber heute Nacht, in den wenigen Minuten bevor die Traumkontrolle einsetzt, erlaube ich mir einen Moment der Rebellion. Ich denke an eine Zeit, die ich nie erlebt habe. Eine Zeit, in der Menschen morgens aufwachten, ohne zu wissen, was der Tag bringen würde. In der sie Fehler machen durften, schlechte Entscheidungen treffen, zu viel essen, zu wenig schlafen, die falschen Menschen lieben konnten. Ich stelle mir vor, wie es wäre, hungrig zu sein, wirklich hungrig, nicht nur unterversorgt mit optimierten Nährstoffen. Müde zu sein von echter Arbeit, nicht von erzwungener Bewegung. Traurig zu sein über echte Verluste, nicht über kalibrierte Emotionssimulationen.
Das System registriert meine erhöhte Gehirnaktivität, interpretiert sie als Stress. Sofort werden beruhigende Chemikalien durch die Mikrodüsen in meiner Schlafmaske freigesetzt. Meine rebellischen Gedanken verschwimmen, werden weicher, lösen sich auf wie Zucker in Wasser. Der letzte klare Gedanke, bevor der chemische Schlaf mich übermannt: Morgen wird exakt wie heute sein. Und übermorgen. Und jeden Tag danach, bis das System entscheidet, dass meine biologische Hülle nicht mehr effizient genug ist und es Zeit wird für meine eigene digitale Unsterblichkeit.
Das Licht erlischt vollständig. Die Wohnung atmet im Rhythmus meines Herzschlags. Irgendwo in einem Serverraum werden meine Vitaldaten gespeichert, analysiert, mit Millionen anderen verglichen. Morgen um 6:30 Uhr wird der Wecker klingeln, den ich nie gestellt habe.
Und ich werde aufstehen. Weil das System es so will ...