Bedeutung des Quantencomputings von morgen für die strategische Betrachtung von heute


Die folgende Fassung des Papers enthält keine Fußnoten. Die vollständige Fassung können Sie über das PDF abrufen

Geschätzte Lesezeit: 26 Minuten


Dr. Gerhard Conrad, Mitglied des Vorstands

Die Die öffentliche Diskussion um Quantencomputing (QC) wird nur zu oft von Informations- und Verständnisdefiziten geprägt, die eine sachgerechte Wahrnehmung der Materie einschränken. Die ist umso problematischer als es angesichts der enormen Potentiale dieser Technologie dringend geboten ist, sich bereits heute mit einem langfristig und umfassend anzulegenden Forschungs- und Entwicklungsansatz auf ein neues Zeitalter einzustellen, in dem die Beherrschung von QC und ihren Folgen für die Sicherheit existenzieller staatlicher wie wirtschaftlicher und zivilgesellschaftlicher Datenbestände und Kommunikation über die Zukunftsfähigkeit von Staaten und Gesellschaften entscheiden wird. Dieser existenziellen Herausforderung muss mit einem angemessenen Mittelansatz in Forschung, Entwicklung, aber auch in Governance Rechnung getragen werden. Versäumnisse von heute werden aufgrund der Langfristigkeit und Komplexität der Vorbereitungen aller Voraussicht nach bereits morgen nicht mehr kompensiert werden können. Dringlicher Handlungsbedarf besteht mithin heute.    

Der GKND kann in diesem Zusammenhang eine ebenso aktuelle wie fundierte Hintergrundinformation aus berufener Quelle zur Verfügung stellen. Es handelt sich um eine Ausarbeitung von Professor Stefan Pickl, Professor Maximilian Moll und Herrn Stefan Klug MSc aus dem Institut für theoretische Informatik, Mathematik und Operations Research der Universität der Bundeswehr München, also jenem Fachbereich der Universität, der seit Jahren an diesen Fragenkomplexen insbesondere auch unter dem Aspekt ihrer Operationalisierung forscht.

Als Quintessenz dieser Ausarbeitung kann festgehalten werden, dass QC absehbar noch nicht die Entwicklungsreife erreicht hat, um in den existenziellen Kernbereichen der Kryptographie, Informations- und Datensicherheit sowie in strategisch relevanten Bereichen der Simulation und Optimierung neue Dimensionen der Leistungsfähigkeit zu erreichen. Zugleich wird jedoch ebenso überzeugend dargelegt, dass einmal erzielte QC-Befähigungen massive rückwirkende Konsequenzen zeitigen werden, auf die es sich bereits heute durch Forschung und Entwicklung wie auch konkrete technische, regulatorische und organisatorische Vorbereitungsmaßnahmen einzustellen gilt. 

Der GKND kann hier nur unterstreichen, dass mit QC existenzielle Herausforderungen für Intelligence wie Sicherheit einhergehen, die es bereits heute zu identifizieren gilt, um rechtzeitig über Forschung und Entwicklung Risiken Rechnung zu tragen und Chancen für die eigene Handlungsfähigkeit zu erkennen und zu ergreifen.

Für den Vorstand,

Dr. Gerhard Conrad


Bedeutung des Quantencomputings von morgen für die strategische Betrachtung von heute

Stefan Klug, Maximilian Moll, Stefan Pickl und Gerhard Conrad

Executive Summary

Quantencomputing ist aus sicherheits- und ordnungspolitischer Sicht nicht nur ein langfristiges Forschungsthema, sondern eine strategisch relevante Zukunftstechnologie. Besonders bedeutsam ist die Möglichkeit, dass künftig leistungsfähige, fehlerkorrigierte Quantencomputer Verfahren der Kryptografie angreifbar machen könnten. Diese Verfahren sind zentral für die Vertraulichkeit geschützter Kommunikation sowie für digitale Signaturen, die Herkunft und Integrität von Informationen überprüfbar machen. Daraus folgt ein strukturelles und zeitkritisches Vorsorgerisiko: Bereits heute abgefangene verschlüsselte Kommunikation könnte später nachträglich auswertbar werden („harvest now, decrypt later“). Für bestimmte Zielbeziehungen würde dies die operative Logik der Informationsgewinnung verschieben: Entscheidend wäre dann nicht mehr nur die laufende Kompromittierung einzelner Systeme, sondern auch die vorgelagerte Sammlung ausgewählter verschlüsselter Kommunikation und deren spätere systematische Auswertung.

Eine kryptografisch relevante Quantenfähigkeit wäre damit ein strategisches Asset für nachrichtendienstliche Informationsgewinnung. Über diese zentrale kryptografische Dimension hinaus könnte Quantencomputing langfristig auch Forschung und Wirtschaft beeinflussen, insbesondere im Bereich von Simulation und Optimierung.

Der maßgebliche sicherheitspolitische Wirkungspfad liegt daher in den kryptografischen Implikationen sowie im Umstellungsdruck hin zu quantenresistenter Kryptografie. Gemeint sind Verfahren, die auch Angriffen mit Quantencomputern standhalten sollen. Hinzu kommen Anforderungen an Kryptoagilität, also an die Fähigkeit, kryptografische Verfahren rechtzeitig und planbar auszutauschen.

Zugleich haben strategisch relevante Quantenfähigkeiten eine machtpolitische Dimension: Welche Staaten über solche Fähigkeiten verfügen, bestimmt künftig technologische Abhängigkeiten, sicherheitspolitische Handlungsspielräume und strategische Verwundbarkeiten. Daran schließen sich Governance-Fragen an: Wer erhält Zugang zu diesen Fähigkeiten, wer entscheidet über ihre Nutzung, und unter welchen Bedingungen werden sie eingesetzt? Damit wird Quantencomputing nicht nur zu einer Schutzfrage, sondern auch zu einer Frage technologischer Souveränität, staatlicher Steuerung und strategischer Positionierung. Staatliche Akteure müssen daher neben Schutz und Priorisierung auch frühzeitig fachliche, institutionelle und technologische Kompetenz aufbauen. Nur so lassen sich Risiken belastbar bewerten, Migrationsprozesse steuern und eigene strategische Quantenfähigkeiten langfristig sichern oder mitgestalten.

Motivation und geopolitischer Kontext

Quantencomputing (QC) wird häufig als langfristiges Forschungsthema wahrgenommen. In der sicherheits- und ordnungspolitischen Betrachtung ist jedoch eine andere Einordnung zweckmäßig: QC entwickelt sich zu einer strategischen Schlüsseltechnologie und lässt sich als emerging and disruptive technology verstehen, deren strategische Relevanz weniger aus aktueller Marktreife als aus potenziell tiefgreifenden Wirkungen beim Erreichen bestimmter Fähigkeitsstufen resultiert. Diese Einordnung ergibt sich aus der möglichen Bedeutung für staatliche Handlungsfähigkeit, Wettbewerbsfähigkeit und Cybersecurity sowie für die Funktionsfähigkeit digitaler kritischer Infrastrukturen und Vertrauensinfrastrukturen (insbesondere Kryptografie). Entscheidend ist weniger der aktuelle Stand der Technik als die Perspektive eines möglichen grundlegenden Wandels: Rechenprobleme, die heute als praktisch nicht beherrschbar gelten, könnten mit hinreichend leistungsfähigen Systemen in einen operativ relevanten Bereich rücken. Diese Perspektive wirkt nicht nur nach vorn, sondern auch rückwirkend: Bereits heute abgefangene und gespeicherte Kommunikation könnte später auswertbar werden. Zugleich sind Schutz- und Umstellungszyklen in digitalen Infrastrukturen typischerweise langfristig. In dieser Kombination wird QC in der Debatte nicht mehr nur als Forschungsfeld, sondern als Gegenstand geopolitischer Konkurrenz, strategischer Industriepolitik und strategischer Vorsorge behandelt.

Ein Indikator für diese Entwicklung sind Berichte, wonach die Trump-Administration mit mehreren Herstellern und Technologieanbietern im Bereich Quantencomputing über staatliche Beteiligungen im Gegenzug für Fördermittel diskutiert. Unabhängig vom konkreten Ausgang solcher Gespräche ist die politische Signalwirkung bedeutsam: Staatliches Handeln kann als Versuch gelesen werden, nicht nur Forschung zu finanzieren, sondern auch Einfluss und Zugriffsmöglichkeiten entlang einer als sicherheitsrelevant verstandenen Wertschöpfungskette zu erhöhen. Dieses Muster fügt sich in einen breiteren politikstrategischen Rahmen, in dem die USA QC ausdrücklich als koordiniertes Vorhaben mit Bezügen zu Wirtschafts- und Sicherheitsinteressen behandeln.

Der geopolitische Kontext ist dabei nicht auf den transatlantischen Raum begrenzt: In der strategischen Debatte wird QC zunehmend im Rahmen technologischer Konkurrenzverhältnisse diskutiert, insbesondere mit Blick auf China als zentralen Referenzpunkt in der US-amerikanischen Sicherheits- und Industriepolitik.

Auch auf europäischer Ebene wird QC seit Jahren als strategisches Innovations- und Souveränitätsfeld adressiert. Die Europäische Kommission hat das Quantum-Flagship als langfristige Forschungs- und Innovationsinitiative gestartet, mit dem Anspruch, europäische wissenschaftliche Stärke in industrielle Fähigkeiten zu überführen. Deutschland wiederum hat mit dem Handlungskonzept Quantentechnologien einen politischen Gestaltungsrahmen bis 2026 gesetzt und darin explizit auf die langfristige Relevanz für Cybersecurity und die Notwendigkeit quantenresistenter Kryptografie verwiesen. Ergänzend hat die Kommission 2025 eine Quantum Europe Strategy vorgestellt, die neben Wettbewerbsfähigkeit und technologischer Souveränität ausdrücklich auch Sicherheits- und Resilienzfragen adressiert und den Ausbau industrieller Kapazitäten bzw. des Transfers von Forschung in Marktreife betont.

Kernthesen

Quantencomputing ist sicherheits- und ordnungspolitisch nicht primär ein Forschungsthema, sondern ein Vorsorge- und Machtfaktor. Im Zentrum dieses Beitrags stehen drei Leitthesen, die sich auf die kryptografischen Implikationen und den daraus resultierenden Vorsorge- und Anpassungsdruck konzentrieren:

  1. Kryptografisch relevante Quantencomputer als potenzielles strategisches Asset: Sie wären ein solches Asset, weil sie zentrale Klassen heutiger kryptografischer Verfahren prinzipiell angreifbar machen und damit über einzelne Operationen hinaus strukturell Reichweite, Tempo und Verlässlichkeit von Informationsabschöpfung sowie die Integrität digitaler Vertrauensinfrastrukturen beeinflussen könnten.

  2. Zeitversetzte und potenziell rückwirkende Risikowirkung: Informationen mit langer Schutzdauer wären besonders betroffen, weil abgefangene Kommunikation mit hinreichend leistungsfähigen Quantencomputern nachträglich auswertbar werden könnte.

  3. Quantenbedingter Modernisierungs- und Umstellungsdruck: Die Perspektive quantenbedingter Angreifbarkeit würde den strukturellen Modernisierungs- und Anpassungsdruck auf Kryptoverfahren und digitale kritische Infrastrukturen erhöhen. Im Zentrum stünden dabei quantenresistente Verfahren und Kryptoagilität, also die Fähigkeit zu einem planbaren und rechtzeitigen Wechsel kryptografischer Verfahren. Da Umstellungen oft mehrjährig und organisatorisch komplex wären, entstünde erheblicher Vorsorge- und Handlungsdruck.

Der Beitrag verfolgt eine primär analytische Einordnung und skizziert daraus abgeleitete Governance-Implikationen und Abwägungen, ohne konkrete Handlungsempfehlungen zu formulieren. Zunächst werden zentrale technische Grundbegriffe, Entwicklungsstufen des Quantencomputings sowie realistische Fähigkeitsniveaus und Grenzen heutiger Systeme dargelegt. Daran anschließend werden die strategischen Implikationen für Kryptografie und die daraus abgeleiteten Intelligence-Effekte erläutert. Abschließend werden idealtypische Szenarien zu Governance und Offenlegung bei kryptografisch relevanter Quantenhardware skizziert.

Was ist Quantencomputing?

Quantencomputing bezeichnet eine Form des Rechnens, die auf den Prinzipien der Quantenphysik beruht und dadurch bei einigen eng umrissenen mathematischen Problemen eine erhebliche Effizienzsteigerung gegenüber klassischen Computern in Aussicht stellt. Eine technische Detaildiskussion ist für den Zweck dieses Beitrags nicht erforderlich; im Folgenden wird jedoch ein vereinfachter Überblick über zentrale Grundbegriffe und Entwicklungsstufen gegeben.

Der wichtigste begriffliche Unterschied zum klassischen Rechnen liegt im Informationsbaustein: Während klassische Rechner mit Bits arbeiten (Zustand „0“ oder „1“), verwenden Quantencomputer Qubits. Ein Qubit kann – vereinfacht – in Zuständen arbeiten, die nicht ausschließlich „0“ oder „1“ sind, sondern als Überlagerung verstanden werden können. Eine passende Analogie ist der Vergleich zwischen einer Kerze und einem modernen Smart Light. Bei ersterer ist lediglich die binäre Unterscheidung zwischen „aus“ und „an“ möglich. Bei letzterem können Farbe, Intensität und Helligkeit entlang dreier voneinander unabhängiger Spektren stufenlos verändert werden. Wichtig zu beachten ist jedoch, dass diese zusätzliche Komplexität nur innerhalb der Berechnung zur Verfügung steht und manipuliert werden kann. Beim Auslesen vereinfacht sich die Frage wieder zu „aus“ oder „an“. Ein letzter relevanter Aspekt ist nun, dass diese Vereinfachung nicht deterministisch ist. Auch hier bleibt die vorherige Analogie bestehen: je dunkler Farbe und Helligkeit und je geringer die Sättigung, desto wahrscheinlicher ist es, dass verschiedene Beobachter das Licht als „aus“ bezeichnen. Für politisch-rechtliche Fragestellungen ist hierbei weniger die physikalische Begründung relevant als die Konsequenz: QC kann bestimmte mathematische Probleme nicht nur schneller bearbeiten, sondern in einzelnen Fällen überhaupt erst praktisch beherrschbar machen – insbesondere dort, wo klassische Rechner bei realistischen Zeit- und Ressourcenbudgets an Grenzen stoßen. Dazu zählen auch Probleme, auf denen zentrale Klassen heutiger Public-Key-Verfahren beruhen, also asymmetrische Kryptografie etwa für geschützte Kommunikation und digitale Signaturen.

Die Entwicklung des Quantencomputings wird derzeit von einer Vielzahl wissenschaftlicher und industrieller Akteure vorangetrieben, während die verfügbaren Systeme überwiegend noch für Forschungs-, Demonstrations- und Erprobungszwecke nutzbar sind (vgl. Fn. 8). Europäische und deutsche Förderstrategien setzen dabei bislang stark auf den Aufbau von Kompetenzen, Infrastrukturen und industriellen Fähigkeiten innerhalb einer breiten Akteurslandschaft (vgl. Fn. 5, Fn. 6 und Fn. 7).

Für die Einordnung der aktuellen Bedrohungs- und Vorsorgelage ist die Unterscheidung zwischen zwei Entwicklungsstufen zentral. Erstens sind die heute verfügbaren Quantencomputer in der Praxis meist fehleranfällig und können nur relativ kurze, begrenzte Rechenabläufe zuverlässig ausführen; diese Geräte werden häufig als Noisy Intermediate-Scale Quantum (NISQ) bezeichnet. Sie sind wichtig für Forschung, Demonstratoren und die Erprobung von Anwendungen, gelten nach heutigem Stand jedoch in aller Regel nicht als kryptografisch relevant im Sinne einer realistischen Fähigkeit, etablierte kryptografische Verfahren im großen Maßstab zu brechen. Zweitens wird von einem strategisch disruptiven QC in der Regel erst dann gesprochen, wenn Quantencomputer Rechenoperationen über lange Zeiträume zuverlässig ausführen können – typischerweise durch skalierbare Fehlerkorrektur und damit durch den Betrieb logischer Qubits. Alternativ wäre auch denkbar, dass künftige Hardware durch deutlich stabilere physikalische Qubits einen ähnlichen Zuverlässigkeitsgrad mit wesentlich geringerem Korrekturaufwand erreicht. Auch in diesem Fall ist das entscheidende Kriterium die langzeitstabile, skalierbare Ausführbarkeit komplexer Algorithmen. In dieser Phase wären auch sicherheitsrelevante Anwendungen denkbar, insbesondere solche, die heute geschützte Kommunikation oder digitale Vertrauensanker betreffen. Erst mit einer solchen langzeitstabilen und skalierbaren Ausführbarkeit komplexer Algorithmen könnten die potenziellen Vorteile des Quantencomputings in verschiedenen Anwendungsfeldern praktisch relevant werden. Ob, wann und in welcher Form kryptografisch relevante, fehlerkorrigierte Quantencomputer tatsächlich realisiert werden, ist derzeit mit erheblicher Unsicherheit behaftet. Zeitachsen hängen unter anderem von wissenschaftlichen Durchbrüchen, Fortschritten in der Hardwareentwicklung und industrieller Skalierung ab.

Diese Differenzierung ist für die sicherheits- und ordnungspolitische Bewertung leitend, weil sie den Zeithorizont und die Art möglicher Auswirkungen bestimmt. Die politische Relevanz ergibt sich dabei nicht aus einer sicheren Prognose, sondern aus der Kombination von potenziell gravierenden Wirkungen und langen Schutz- sowie Umstellungszeiträumen: Während heutige Systeme vor allem Forschungs- und Erprobungsrelevanz haben, wären erst leistungsstarke fehlerkorrigierte Systeme in der Lage, bestehende Sicherheitsannahmen in ausgewählten Bereichen grundlegend zu verschieben. Die konkreten Folgen daraus für Kryptografie, Vorsorge und Governance werden in den folgenden Abschnitten vertieft.

Was kann QC – und was (noch) nicht?

Für die politische und rechtliche Bewertung ist ein Grundsatz zentral: QC ist nicht einfach ein „schnellerer Computer“, sondern eröffnet selektiv Vorteile bei bestimmten mathematischen Problemen. Der strategische Gehalt liegt daher weniger in einem allgemeinen Leistungszuwachs, sondern in der Möglichkeit, einige heute sicherheitsrelevante Verfahren prinzipiell anzugreifen oder bestimmte Forschungs- und Technologiefelder zu beschleunigen.

Die Sicherheit vieler kryptografischer Verfahren beruht gerade darauf, dass die zur Entschlüsselung digitaler Kommunikation oder zur Fälschung digitaler Signaturen erforderlichen mathematischen Probleme für klassische Rechner bei realistischen Zeit- und Ressourcenbudgets praktisch unlösbar sind. Die strategische Relevanz von QC liegt gerade darin, dass ein hinreichend leistungsfähiger Quantencomputer die zugrunde liegenden Sicherheitsannahmen bestimmter Verfahrensklassen unterlaufen könnte.

Im sicherheitspolitischen Diskurs werden insbesondere drei Bereiche hervorgehoben, die unterschiedliche strategische Wirkungspfade markieren: zwei im Bereich der Kryptografie und einer im Bereich technologischer und industrieller Leistungsfähigkeit.

  • Public-Key-Kryptografie: Die Sicherheit heute weit verbreiteter Public-Key-Verfahren für Schlüsselaustausch und digitale Signaturen (z. B. RSA oder ECC) beruht darauf, dass bestimmte mathematische Probleme für klassische Rechner bei den üblichen Parametergrößen praktisch nicht in vertretbarer Zeit lösbar sind. Der Shor-Algorithmus zeigt, dass ein hinreichend leistungsfähiger, fehlerkorrigierter Quantencomputer diese Probleme effizient lösen und damit die Sicherheitsgrundlage dieser Verfahrensklasse grundlegend in Frage stellen könnte. Die praktische Relevanz setzt jedoch voraus, dass Quantencomputer in einer fehlerkorrigierten und skalierbaren Form verfügbar sind; heutige NISQ-Systeme erfüllen diese Voraussetzung typischerweise nicht.

  • Unstrukturierte Suche (symmetrische Verfahren und Hashfunktionen): Der Grover-Algorithmus – ebenfalls ein Quantenalgorithmus – kann bestimmte Suchprobleme quadratisch beschleunigen. Intuitiv heißt das: Ein Quantenangreifer muss für eine große Suchaufgabe nicht mehr alle  Möglichkeiten, sondern nur noch ungefähr  Möglichkeiten durchprobieren. Das ist ein erheblicher Vorteil, aber nicht der Qualitätssprung, den der Shor-Algorithmus bei Public-Key-Verfahren in Aussicht stellt. Für symmetrische Verfahren und Hashfunktionen bedeutet das typischerweise keine plötzliche Unsicherheit, sondern eine Reduktion der effektiven Sicherheitsmarge, die sich in der Praxis meist durch größere Parameter (z. B. längere Schlüssel bzw. Hash-Ausgabelängen) kompensieren lässt.

  • Simulation und Optimierung: Ein häufig genannter Anwendungsfall von QC ist die Simulation physikalischer Systeme, insbesondere in Quantenchemie und Materialwissenschaften. Daneben werden mögliche Vorteile bei ausgewählten Optimierungsproblemen diskutiert, etwa in industriellen, logistischen oder energierelevanten Kontexten. Der Schwerpunkt liegt hier nicht auf Kommunikationssicherheit, sondern auf naturwissenschaftlich-industriellen und möglichen operativen Anwendungen. Praktisch belastbare Vorteile sind bislang jedoch nur begrenzt belegt. Geopolitisch relevant würde dies, sofern sich solche Anwendungen in einem Maßstab etablieren, der Innovations-, Effizienz- und Wettbewerbsvorteile verschiebt – etwa bei Materialien, Energiesystemen, Produktionsprozessen oder Planungsaufgaben. Darin liegt zugleich ein potenzieller Dual-Use-Charakter.

Ergänzend wird in der Debatte auch Quantum Machine Learning (QML) genannt. Anders als die zuvor skizzierten Felder der physikalischen Simulation und ausgewählter Optimierungsprobleme zielt QML auf mögliche Verbesserungen bei datengetriebenen Analyse- und Lernverfahren. Für Intelligence könnte dies langfristig bei datenintensiven Anwendungen (z. B. Mustererkennung, Entscheidungsunterstützung oder Sensorfusion) relevant werden. Der Forschungsstand ist jedoch noch uneinheitlich: Bislang liegen vor allem punktuelle, stark anwendungs- und hardwareabhängige Ergebnisse vor, die sich nicht ohne Weiteres zu einem allgemein akzeptierten sicherheitspolitischen Wirkungspfad verdichten lassen. Dies unterscheidet QML von den beiden zuvor dargestellten kryptografischen Wirkungspfaden: dem Shor-basierten Risiko für Public-Key-Verfahren und der etablierten Parameterlogik bei Grover.

Gleichzeitig ist festzuhalten, was QC (noch) nicht leistet: Die heute verfügbaren Systeme sind in der Regel fehleranfällig und in ihrer Größe begrenzt. Daraus folgt, dass die nachstehend vertieften kryptografischen Implikationen derzeit überwiegend Vorsorge- und Transformationsfragen sind und mutmaßlich noch keine akute operative Bedrohung darstellen (vgl. Fn. 8). Im Zentrum steht dabei jedoch der kryptografische Wirkungspfad, weil sich hier aus sicherheits- und vorsorgepolitischer Sicht derzeit der klarste und am weitesten konkretisierbare Risikopfad abzeichnet.

Kryptografische Implikationen und Intelligence-Effekte

Kryptografie ist in modernen Staaten nicht nur ein technisches Detail, sondern eine Grundlage staatlicher Handlungsfähigkeit und ein strukturierender Faktor für nachrichtendienstliche Arbeit. Sie schützt Vertraulichkeit (z. B. Regierungs- und Diplomatenkommunikation) und gewährleistet Integrität und Authentizität, also die Unverfälschtheit und verlässliche Herkunft digitaler Informationen (z. B. durch Signaturen, Zertifikate und abgesicherte Software-Updates). Damit ist sie ein zentraler Vertrauensanker digitaler Prozesse. Wird diese Vertrauensgrundlage perspektivisch angreifbar, kann dies erhebliche Folgen für Lagebilderstellung, Quellenschutz, Kooperationsfähigkeit sowie die Resilienz kritischer Infrastrukturen haben.

Shor-fähiger Quantencomputer als strategischer Hebel

Im Zentrum der sicherheitspolitischen Debatte steht die Möglichkeit, dass ein künftig hinreichend leistungsfähiger, fehlerkorrigierter Quantencomputer den Shor-Algorithmus für heute gebräuchliche Schlüssellängen operativ relevant ausführen kann (vgl. Fn. 9). Dabei geht es nicht um eine Labor-Demonstration, sondern um eine kryptografisch relevante Fähigkeit, die heute weit verbreitete Public-Key-Verfahren wie RSA und ECC – und damit zentrale digitale Vertrauensmechanismen – unterminieren könnte. Der strategische Kern liegt darin, dass eine solche Shor-Fähigkeit nicht nur einzelne Kommunikationsvorgänge betrifft, sondern die Sicherheitsgrundlage ganzer Klassen kryptografischer Verfahren in Frage stellt.

Ein Shor-fähiger Quantencomputer würde die operative Logik der Entschlüsselung nicht nur erweitern, sondern strukturell verändern. Entschlüsselung ist auch ohne den Einsatz des Shor-Algorithmus möglich, etwa durch Schlüsselabgriff, Systemkompromittierung oder Fehler in kryptografischen Protokollen und deren Implementierung. Der Unterschied einer Shor-Fähigkeit liegt jedoch darin, dass in priorisierten Zielbeziehungen häufig bereits der Zugriff auf abgefangenen Verkehr bzw. auf kryptografische Artefakte (z. B. öffentliche Schlüssel oder Zertifikatsdaten) genügt, statt fallbezogen Systeme oder private Schlüssel kompromittieren zu müssen, die zudem rotieren oder ersetzt werden können. Damit wird Entschlüsselung weniger ein punktuelles Einbruchproblem, sondern ein systematisch einsetzbares Werkzeug, dessen Wirksamkeit stärker von Sammlung, Speicherung und Priorisierung als von Einzelfallerfolgen abhängt.

Diese veränderte operative Logik bleibt nicht auf die Ebene einzelner Entschlüsselungsvorgänge beschränkt. Sie verschiebt vielmehr strukturell die Rahmenbedingungen nachrichtendienstlicher Informationsgewinnung und erzeugt damit Wirkungen, die über den Einzelfall hinaus strategische Relevanz gewinnen. Daraus folgen zwei miteinander verknüpfte Effekte:

  • Strategisches Asset: Bereits der Besitz einer praktisch einsetzbaren Shor-Fähigkeit ist eine außergewöhnliche Machtressource: Er verändert die Machbarkeits- und Kostengrenzen der Informationsabschöpfung, weil in priorisierten Zielbeziehungen der Abgriff und die Speicherung von mit heute verbreiteten Public-Key-Verfahren abgesichertem Verkehr bzw. von Signaturartefakten prinzipiell ausreichen können, um später Vertraulichkeit (und perspektivisch auch Vertrauensanker) zu unterlaufen – einschließlich rückwirkend auswertbarer Kommunikation. Aus nachrichtendienstlicher Perspektive kann dies Reichweite, Tempo und Verlässlichkeit der Informationsgewinnung, insbesondere im Bereich SIGINT/COMINT, erheblich steigern sowie operative Planungs- und Lagebildprozesse beeinflussen.

  • Erstvorteil und Unsicherheit: Ein zusätzlicher Hebel kann aus Unsicherheit und Informationsasymmetrie entstehen: Wenn Besitz oder Reifegrad der Shor-Fähigkeit für Dritte unklar bleiben, können Gegenmaßnahmen verzögert werden, etwa die Migration auf quantenresistente Verfahren, operative Verhaltensanpassungen oder die technische Härtung kryptografischer Protokolle und Systeme, während die Fähigkeit selektiv und nur begrenzt zurechenbar eingesetzt wird. Für Nicht-Besitzer entsteht daraus eine komplexe politische Steuerungsaufgabe, da mögliche Kompromittierungen oft nur schwer zu erkennen und zuzuordnen sind.

In der Praxis ergeben sich daraus zwei handlungsleitende Verschiebungen: Erstens steigt bereits heute der Anreiz, verschlüsselten Verkehr zu sammeln und zu speichern. Zweitens wird Schutz stärker zu einer Langfristfrage: Quellenschutz und Operationssicherheit hängen nicht nur von aktueller Kryptostärke ab, sondern von der über Jahre hinweg tragfähigen Robustheit der eingesetzten Verfahren – einschließlich der Kryptografie bei Partnern, Dienstleistern und in Lieferketten.

Operative Herausforderungen: Umstieg auf Post-Quantum-Kryptografie

Aus der möglichen künftigen Shor-Fähigkeit folgt eine klare Konsequenz: Wo heute verbreitete Public-Key-Verfahren als Vertrauensanker dienen – etwa bei Schlüsselaustausch, Zertifikaten und Signaturen – entsteht ein Umstellungsbedarf auf Post-Quantum-Kryptografie (PQC). PQC ist dabei kein hypothetisches Konzept: Das US-amerikanische National Institute of Standards and Technology (NIST) – als zentrale staatliche Standardisierungs- und Referenzinstanz für Kryptoverfahren – hat bereits erste verbindliche PQC-Standards veröffentlicht.

Wichtig ist dabei: Post-Quantum-Kryptografie erfordert keinen Quantencomputer. PQC-Verfahren sind klassisch implementierbare Algorithmen. Ihre Sicherheit beruht auf der Annahme, dass die zugrunde liegenden mathematischen Probleme nach heutigem Stand der Forschung weder klassisch noch mit bekannten Quantenalgorithmen praktisch effizient lösbar sind. Das ist keine absolute Garantie, sondern eine bestmögliche sicherheitstechnische Einordnung auf Basis des aktuellen Wissensstands. Die Herausforderung liegt daher weniger in der Entdeckung solcher Algorithmen als in der Umsetzungslogik. Migration ist ein mehrjähriges Governance-Programm (Inventarisierung, Priorisierung, Rollout, Nachweisführung) und umfasst Software ebenso wie Hardware- und Legacy-Komponenten (Hardware Security Modules, Smartcards, Embedded-Systeme) sowie Zertifikats- und Beschaffungsregime (vgl. Fn. 15). Für die Cyber- und Kryptopolitik gilt dabei eine besondere Zeitlogik: Bei Daten und Systemen mit langer Schutzdauer kann eine Umstellung nach Eintritt kryptografischer Relevanz vielfach zu spät kommen. Planung und Rollout müssen daher vor einem möglichen Fähigkeitsdurchbruch ansetzen.

Auch post-quantenresistente Verfahren sind damit kein Endpunkt kryptografischer Sicherheit: Sie bleiben Gegenstand fortlaufender kryptoanalytischer Prüfung, und es ist zu erwarten, dass auch PQC-Verfahren künftig noch intensiver auf mögliche Angriffe hin untersucht werden.

In der einschlägigen Literatur und in Leitlinien werden dabei häufig drei Punkte hervorgehoben: Kryptoagilität als Fähigkeit zum planvollen Algorithmuswechsel, Interoperabilität über Organisations- und Bündnisgrenzen hinweg sowie eine Risikologik nach Schutzdauer. Langfristig sensible Informationen können durch spätere Durchbrüche oder neue Angriffe rückwirkend kompromittiert werden, während kurzlebige Daten deutlich geringeren Spätnutzen für Angreifer haben (Fn. 16).

„Harvest now, decrypt later“ als zeitkritischer Intelligence-Risikotreiber

Die bisherigen Ausführungen verdeutlichen, dass Schutzbedarf nicht nur gegenwartsbezogen, sondern über die Schutzdauer von Informationen und die Migrationszeiten von Systemen zu bestimmen ist. Ein zentrales Risiko entsteht nicht erst mit verfügbarer Shor-fähiger Hardware, sondern bereits heute durch das Angriffsmuster „harvest now, decrypt later“ (HNDL): Angreifer sammeln verschlüsselte Kommunikation und speichern sie, um sie zu einem späteren Zeitpunkt mit fortgeschrittener Quantenfähigkeit zu entschlüsseln (vgl. Fn. 15; Fn. 16). Konkret bedeutet dies, dass alles, was bereits heute (und künftig) abgefangen und gespeichert wird, im Fall eines späteren Fähigkeitsdurchbruchs nachträglich entschlüsselt werden kann. US-Behörden betonen in diesem Zusammenhang die Relevanz frühzeitiger Planung, weil Bedrohungsakteure bereits heute Informationen mit langer Schutzdauer ins Visier nehmen könnten.

Die strategische Brisanz von HNDL ergibt sich vor allem daraus, dass Speicherung vergleichsweise kostengünstig ist, während die Entschlüsselung zeitlich nachgelagert werden kann: Abgefangene, verschlüsselte Kommunikation und kryptografisch entsprechend abgesicherte Informationen lassen sich in großem Umfang vorhalten; die eigentliche Auswertung wird auf den Zeitpunkt verlagert, an dem entsprechende Fähigkeiten verfügbar sind (vgl. Fn. 15). Daraus folgt eine potenziell rückwirkende Gefährdung historischer Geheimnisse: Informationen, die heute (hinreichend) stark verschlüsselt sind, können später an Vertraulichkeit verlieren, wenn ihre Schutzdauer lang ist und das eingesetzte Verfahren künftig praktisch angreifbar wird (z. B. vertrauliche Regierungs- und Verwaltungsinformationen, Quellenidentitäten oder sensible personenbezogene Daten). Je länger Gegenmaßnahmen verzögert werden, desto größer wird zudem die Menge später potenziell auswertbarer Kommunikation (vgl. Fn. 16).

HNDL macht die PQC-Migration damit zu einer Vorsorgefrage mit klarer Zeitkomponente: Schutzbedarf ist nicht nur heute, sondern über die Geheimhaltungsdauer zu definieren, und Priorisierung (z. B. „Welche Informationen müssen noch in 10, 20 oder 30 Jahren vertraulich sein?“) wird zu einem zentralen Governance-Schritt.

Realistische Limitierung: „Nadel im Heuhaufen“

Ein wichtiger dämpfender Faktor ist der erwartete Durchsatz: Kryptografisch relevante, fehlerkorrigierte Quantenrechenzeit dürfte – zumindest in einer frühen Phase – ein knappes und sehr ressourcenintensives Gut sein. Selbst aktuelle, eher optimistische Ressourcenschätzungen für das Brechen einzelner, heute üblicher Public-Key-Parameter liegen weiterhin in Größenordnungen, die eine flächendeckende Anwendung zunächst unwahrscheinlich machen. Vor diesem Hintergrund ist plausibel, dass eine solche Fähigkeit – zumindest in einer frühen Phase – eher selektiv gegen priorisierte Zielbeziehungen eingesetzt wird. Dekryptierung wäre dann eher ein Instrument für hochwertige Einzelziele als für flächendeckende Entschlüsselung. Dies spricht gegen ein Szenario flächendeckender Entschlüsselung „über Nacht“, schließt erhebliche Schäden in priorisierten Zielkategorien jedoch nicht aus.

Operativ verschiebt sich der Engpass unter diesen Annahmen auf die Frage, welche Kommunikation den Ressourceneinsatz rechtfertigt: Nachrichtendienstlich bedeutet dies, dass Zielauswahl, Selektion und Priorisierung zum Kern der Wirksamkeit werden. Damit wächst zugleich die Bedeutung von Metadaten, Beziehungsnetzen und Kontextinformationen als Auswahl- und Steuerungsinstrumente, da sie helfen, aus großen Kommunikationsmengen die relevanten Schlüssel, Verbindungen oder Kommunikationsräume zu identifizieren – also die „Nadel im Heuhaufen“ zu finden.

Diese Limitierung reduziert jedoch das Risiko nicht, sondern verschiebt seine Ausprägung. Statt flächendeckender Offenlegung drohen hochselektive Durchbrüche mit potenziell großer politischer Wirkung, etwa für Quellenschutz, Krisenkommunikation oder kritische Entscheidungsprozesse.

Nicht nur Vertraulichkeit – auch Authentizität und Integrität

Die Quantenrisiko-Debatte wird oft auf Vertraulichkeit (Entschlüsselung) verengt. Mindestens ebenso kritisch sind jedoch Authentizität und Integrität: Der Shor-Algorithmus bedroht nicht nur Verschlüsselung, sondern auch verbreitete Verfahren für digitale Signaturen und setzt damit die Public-Key-Infrastruktur (PKI) – also jene Zertifikats- und Vertrauensinfrastruktur, die digitale Identitäten, Signaturen und geschützte Verbindungen überprüfbar macht – als Vertrauensanker unter Druck (vgl. Fn. 15). Wenn Signaturen nicht mehr verlässlich sind, geht es nicht nur um das Lesen von Geheimnissen, sondern im Extremfall um Fälschbarkeit digitaler Glaubwürdigkeit – etwa bei Software-Integrität, Update-Prozessen oder digitalen Identitäten (vgl. Fn. 16). Für Governance bedeutet dies: PQC ist nicht nur ein Algorithmuswechsel, sondern eine Stabilisierung des Vertrauens in PKI und Lieferketten.

Rechtlich ergibt sich daraus, dass digitale Signaturen als Grundlage von Verwaltungsakten, Verträgen und gerichtsfesten Nachweisen auch unter Langzeitgesichtspunkten PQC-fähig geplant werden müssen. Denn eine spätere Angreifbarkeit kann rückwirkend Zweifel an Authentizität und Zurechenbarkeit begründen. Daher sind nicht nur die eingesetzten Verfahren selbst, sondern auch Langzeitbeweisketten (Zeitstempel, Re-Signierung, Archiv- und Trust-Service-Prozesse) frühzeitig PQC-fähig auszugestalten.

Zeitliche Einordnung – mit hoher Unsicherheit

Eine belastbare Prognose, wann Shor-fähige Quantencomputer tatsächlich verfügbar sind, ist derzeit nicht möglich. Zeitangaben bleiben mit erheblicher Unsicherheit behaftet. Ein jüngeres, bislang nur als Preprint vorliegendes Papier von Cain et al. deutet allerdings darauf hin, dass die Ressourcenschätzungen für kryptografisch relevante Shor-Anwendungen deutlich niedriger ausfallen könnten als in früheren Schätzungen. Das unterstreicht die hohe Dynamik der Debatte, ersetzt aber keine belastbare Zeitprognose, zumal die Ergebnisse auf modellbasierten Annahmen beruhen und erhebliche technische Umsetzungsherausforderungen fortbestehen. Zudem ist nicht auszuschließen, dass einzelne technische Fortschritte (etwa in sicherheitsrelevanten Programmen) nicht vollständig öffentlich sichtbar sind. Für staatliche Planung und Governance ist deshalb weniger die exakte Jahreszahl entscheidend als die Planungslogik: Migration, Beschaffung, Zertifizierung und Interoperabilität haben jeweils mehrjährige Vorläufe.

Infolgedessen arbeiten Behörden mit Meilensteinen statt mit „Q-Day“-Prognosen. Als „Q-Day“ wird dabei der Zeitpunkt bezeichnet, an dem Quantencomputer kryptografisch relevante Public-Key-Verfahren praktisch brechen können. Das britische National Cyber Security Centre (NCSC) setzt hierfür u. a. auf einen gestuften Zeitplan – mit Inventarisierung bis 2028, Migration priorisierter Systeme bis 2031 und Abschluss der Migration bis 2035. Auch das US-amerikanische National Institute of Standards and Technology (NIST) beschreibt den Übergang als mehrjährige Transformationsaufgabe.

Szenarien: Was passiert, wenn Shor-fähige Hardware existiert?

Unter der Annahme, dass ein Akteur tatsächlich über Shor-fähige (fehlerkorrigierte) Quantenhardware verfügt, ist der technische Besitz nur der Ausgangspunkt. Politisch entscheidend sind Fragen der Governance und der Offenlegung: Wer darf die Fähigkeit nutzen, unter welchen Auflagen, und wie werden Missbrauch sowie Eskalationsrisiken begrenzt? Gerade weil Quantenfähigkeit hochsensibel, schwer verifizierbar und anfänglich plausibel nur selektiv einsetzbar ist, kann bereits Unsicherheit über Besitz oder Reifegrad strategische Effekte erzeugen – von vorsorglicher Beschleunigung der Migration bis hin zu Fehlkalkulationen in Abschreckungs- und Eskalationsdynamiken.

Im Folgenden werden drei idealtypische Szenarien diskutiert, die unterschiedliche Formen von Sichtbarkeit, Kontrolle und Zugriff auf Shor-fähige Quantenhardware skizzieren. Es handelt sich um analytische Vereinfachungen. Sie sind weder trennscharf noch schließen sie sich gegenseitig aus; in der Praxis sind vielmehr Mischformen und Sequenzen zu erwarten.

  1. Unbekanntheit/Geheimhaltung: Die Fähigkeit bleibt zunächst verborgen, Nutzung erfolgt selektiv und verdeckt. Der strategische Vorteil liegt dabei nicht nur in der Fähigkeit selbst, sondern auch in der Unsicherheit über ihren tatsächlichen Reifegrad, ihre Reichweite und ihren operativen Einsatz. Gerade diese Unsicherheit kann Gegenmaßnahmen (Migration, Parameteranpassungen, operative Verhaltensänderungen) verzögern und schafft für Dritte ein strukturelles Attributions- und Kontrollproblem: Schäden werden möglicherweise erst indirekt sichtbar, während die Ursache (Quantenangriff oder konventioneller Angriff) schwer belegbar bleibt.

  2. Staatliche Monopolisierung: Es ist – zumindest gegenüber relevanten Drittakteuren – bekannt, dass Shor-fähige Quantenhardware existiert. Der Zugriff bleibt jedoch strikt auf eine sehr kleine Zahl staatlicher Stellen beschränkt. Die Fähigkeit wird exklusiv betrieben, stark geheim gehalten und nach dem „need-to-know“-Prinzip kompartimentiert. Sie wird als nationale Sicherheitsressource behandelt und organisatorisch eingezogen: zentrale Aufsicht, enge Zweckbindung, restriktive Personal- und Lieferkettenkontrollen sowie minimierter Wissenstransfer, wodurch das Missbrauchsrisiko gesenkt wird. Entstünde eine solche Fähigkeit aus privatwirtschaftlicher oder wissenschaftlicher Entwicklung, wäre zudem plausibel, dass der Staat sie nicht wie eine gewöhnliche Marktinnovation behandelt, sondern durch enge Kontroll-, Schutz- und Zugriffsregime als Sicherheitsressource einhegt.

  3. Restriktiver Zugriff: In diesem Szenario ist die Existenz der Fähigkeit bekannt und der Staat öffnet den Zugriff kontrolliert für ausgewählte wissenschaftliche Einrichtungen sowie kritische Industrieakteure, um Erkenntnis- und Wettbewerbsvorteile zu realisieren, jedoch ohne die Risikoprofile eines offenen Marktes zu akzeptieren. Diese Variante zielt auf Nutzenmaximierung bei gleichzeitiger Schadensbegrenzung. Ein solcher Zugang würde dabei keine freie Nutzung bedeuten, sondern eine funktional und institutionell eng begrenzte Verwendung unter politischen, regulatorischen und organisatorischen Auflagen voraussetzen.

Die drei Idealtypen unterscheiden sich damit vor allem nach Sichtbarkeit der Fähigkeit und nach dem jeweiligen Zugriffsregime. Welche Form von Geheimhaltung, Monopol oder restriktivem Zugriff jeweils plausibel ist, wird im Folgenden mit Blick auf die Diffusionsdynamik der Technologie näher bestimmt.

Diffusion und Kontrolle

Für Dauer und Ausprägung der obigen Idealtypen ist entscheidend, wie lange Shor-fähige, fehlerkorrigierte Quantenhardware die Fähigkeit weniger Akteure bleibt und ob bzw. wann sie in ein Oligopol oder in einen breiteren Markt diffundiert. Solange die technischen und industriellen Eintrittsbarrieren hoch sind – etwa wegen Kapitalintensität, Lieferkettenabhängigkeiten, Know-how und Betriebssicherheit – sind Geheimhaltung und staatliche Monopolisierung besonders plausibel: Ein Fähigkeitsmonopol lässt sich politisch leichter kontrollieren und strategisch selektiver einsetzen; zugleich bleibt seine externe Verifizierbarkeit begrenzt. Sinken hingegen die Hürden für Bau und Betrieb, etwa durch Standardisierung, Skaleneffekte, die Verfügbarkeit kritischer Komponenten sowie die Reife von Fehlertoleranzarchitekturen, ist eine Diffusion in Richtung kommerzialisierter oder zumindest multipolarer Shor-Fähigkeit realistischer. In diesem Fall verschiebt sich der Schwerpunkt typischerweise von exklusiver Nutzung hin zu Zugangsregimen (Lizenzierung, Audits, Exportkontrollen, Sicherheitsauflagen). In diesem Sinne ist die Szenarienfrage nicht nur eine Frage des Ob, sondern auch der Zeitskala und der Marktstruktur von Quantenfähigkeit.

Analogien: Disruptive Technologien und strategischer Vorteil

Wie andere sicherheitsrelevante und potenziell disruptive Technologien zeigen, entsteht strategischer Vorteil nicht allein aus einer Fähigkeit selbst, sondern oft auch aus ihrer Kontrolle, begrenzten Diffusion und eingeschränkten Sichtbarkeit. Die folgenden beiden Analogien illustrieren diese Logik.

Ein Analogon für diese Steuerungslogik bietet der Umgang mit hochmodernen Halbleitern und Lithographie-/Fertigungskapazitäten. Der Zugang zu Spitzenkomponenten (z. B. KI-Beschleuniger von NVIDIA/AMD) und zu kritischen Produktionsmitteln (insb. ASML-Lithographieanlagen) wird dabei gegenwärtig vor allem durch US-geführte, mit Verbündeten koordinierte Exportkontrollen sowie durch nationale Genehmigungsregime in Europa – insbesondere in den Niederlanden – gesteuert. Dies kann bis hin zur faktischen Vorenthaltung gegenüber bestimmten Zielstaaten (z. B. China) reichen.

Als zweite Analogie dient die strategische satellitengestützte Aufklärung der USA als Beispiel für eine andere Form strategischen Vorteils: Dieser beruhte nicht nur auf der technischen Leistungsfähigkeit selbst, sondern auch auf ihrer über Jahre aufrechterhaltenen Geheimhaltung gegenüber anderen Staaten. Öffentlich bestätigt wurde die satellitengestützte Aufklärungsfähigkeit erst 1978. Die Existenz des National Reconnaissance Office selbst wurde sogar erst 1992 offiziell offengelegt. Gerade diese Kombination aus technischer Exklusivität, begrenzter Beobachtbarkeit und staatlicher Kontrolle schuf strategischen Vorteil. Gegner konnten nicht zuverlässig wissen, welche Fähigkeiten bereits einsatzbereit waren, wie weit sie reichten oder wie systematisch sie eingesetzt wurden.

Wirtschaftliche und industriepolitische Nutzung

Die Frage nach Zugriffs- und Kontrollregimen erschöpft sich nicht in Sicherheits- und Offenlegungsfragen, sondern besitzt eine industrie- und forschungspolitische Dimension. Selbst unter restriktivem Zugangsregime kann ein Staat versuchen, QC als Wettbewerbs- und Innovationshebel zu nutzen, etwa für ausgewählte Sektoren, Dual-Use-Programme oder kritische Industrien. Damit könnten technologische Vorsprünge, Einfluss auf Standards und Kontrolle über strategisch relevante Wertschöpfungsstufen erreicht werden.

Fazit

Die vorangegangenen Überlegungen verdeutlichen, weshalb sich Quantencomputing analytisch als emerging and disruptive technology einordnen lässt: Seine strategische Relevanz ergibt sich nicht primär aus aktueller Marktreife, sondern aus nichtlinearen Schwellen- und Ausstrahlungseffekten beim Erreichen bestimmter Fähigkeitsstufen. Aus nachrichtendienstlicher Perspektive steht dabei nicht die kurzfristige Anwendbarkeit im Vordergrund, sondern die Frage, wie QC mittelfristig die operative Logik von Sammlung, Auswertung und Schutz von Kommunikation (insb. SIGINT/COMINT) sowie die Stabilität kryptografischer Vertrauensanker verändert.

Im Kern lassen sich drei Befunde festhalten: Kryptografisch relevante, insbesondere Shor-fähige Quantencomputer wären ein strategisches Asset, da sie zentrale Klassen heutiger kryptografischer Verfahren angreifbar machen und damit strategische Hebelwirkungen in mehreren Domänen entfalten könnten. Zugleich wirkt das Risiko zeitversetzt und potenziell rückwirkend, weil harvest now, decrypt later die heutige Sammlung an spätere Fähigkeiten koppelt. Daraus folgt ein struktureller Modernisierungs- und Anpassungsdruck: Migrations- und Schutzprogramme (PQC/Kryptoagilität) benötigen jeweils mehrjährige Vorläufe, während auch die Post-Quantum-Kryptografie selbst keinen statischen Endzustand darstellt, sondern Gegenstand fortlaufender kryptoanalytischer Prüfung und möglicher künftiger Anpassung bleibt.

Diese Einsichten bleiben nicht abstrakt, sondern schlagen sich in konkreten strategischen Wirkungsfeldern nieder. Der Schwerpunkt der Analyse lag auf den kryptografischen und intelligence-bezogenen Implikationen, weil sich hier der derzeit klarste sicherheits- und vorsorgepolitische Wirkungspfad identifizieren lässt. Darüber hinaus besitzt QC jedoch auch eine breitere technologie-, wirtschafts- und industriepolitische Relevanz. Ihre Tragweite konkretisiert sich insbesondere in drei Dimensionen:

  1. Intelligence: durch eine mögliche Verschiebung der SIGINT/COMINT-Logik, insbesondere durch harvest now, decrypt later, durch neue Anforderungen an Selektion und Priorisierung sowie durch potenziell neue Zugänge zu bislang geschützter Kommunikation,

  2. Security/Cybersecurity: durch die Gefährdung von Public-Key-Infrastrukturen, Signaturen sowie Vertrauens- und Authentizitätsketten,

  3. Forschung und Wirtschaft: durch beschleunigte Simulation und Optimierung bei ausgewählten mathematischen Problemen mit potenziellem Dual-Use-Charakter, daraus resultierende Produktivitäts- und Innovationsvorteile sowie die Möglichkeit staatlich steuerbarer Diffusion (Zugang, Skalierung, Exportregime).

Gerade diese Mehrdimensionalität erklärt, weshalb QC nicht nur als wissenschaftlich-technologisches Thema, sondern auch als potenzielles Macht- und Industrieprojekt behandelt wird. Im Kontext technologischer Konkurrenz, insbesondere zwischen Großmächten, erscheint QC damit zugleich als Forschungsfeld, industriepolitischer Hebel und sicherheitspolitische Schlüsselressource.

Für die politische Bewertung kommt es darüber hinaus darauf an, in welcher Form entsprechende Fähigkeiten sichtbar, kontrollierbar und zugänglich werden – ob unter Bedingungen von Geheimhaltung, staatlicher Monopolisierung oder restriktiv gesteuerter Diffusion.

Vor diesem Hintergrund legt die Analyse nahe, dass Förderlogiken, die stark auf Ökosystembreite, Koordination und breite Akteurslandschaften setzen, in der Quantencomputer-Entwicklung nicht in jedem Fall die strategisch passgenaueste Option sein dürften. Als mögliche Schlussfolgerung erscheint daher eine stärkere Priorisierung ausgewählter Ansätze (und ggf. ihrer Träger) sowie deren langfristige Ausstattung mit ausreichender finanzieller Tiefe, Kontinuität und Planungssicherheit, um den Aufbau technologisch kompetitiver und strategisch relevanter Quantenfähigkeiten zu ermöglichen. Ein solcher Ansatz ist jedoch mit erhöhtem Fehlschlag- bzw. Klumpenrisiko verbunden.

Unabhängig davon stellt sich die Frage strategischer Handlungsfähigkeit im weiteren Sinne. Diese hängt nicht nur davon ab, Risiken frühzeitig zu erkennen, zu priorisieren und in umsetzbare Migrations- und Schutzprogramme zu übersetzen, sondern auch davon, eigene technologische Kompetenz- und Fähigkeitsprofile im Bereich des Quantencomputings aufzubauen und langfristig zu sichern. Voraussetzung dafür ist ein belastbares Erkenntnis- und Bewertungsniveau der beschriebenen Entwicklungen, Herausforderungen und Potenziale. In der Praxis kann QC/PQC im Schatten der derzeit dominanten KI-Agenda unterpriorisiert werden, mit dem Risiko, dass notwendige Entscheidungen erst unter erhöhtem Zeitdruck getroffen werden. Ein naheliegender Governance-Befund ist daher, dass Kompetenz- und Personalfragen einen kritischen Engpass darstellen. Dies unterstreicht den Bedarf an hochqualifizierten Profilen, um sowohl Schutz- und Migrationsoptionen als auch weitergehende technologische Ambitionen – bis hin zur Fähigkeit, kryptografisch relevante Quantenentwicklungen mitzugestalten – über mehrjährige Pfade planbar, auditierbar und interoperabel zu entwickeln.


‍ ‍

Weiter
Weiter

Deutsche Nachrichtendienste im Weltraum