Praxistest: aqua KI-Copilot – Was er wirklich kann und was (noch) nicht
Seit mehr als 15 Jahren arbeite ich in der Qualitätssicherung, und zwar in den unterschiedlichsten Rollen: als Testmanager, Testanalyst und Testautomatisierer. Ich habe in dieser Zeit eine Vielzahl von Tools ausprobiert – manche waren großartig, andere haben im Alltag schlichtweg enttäuscht. Inzwischen bin ich deshalb vorsichtig mit vorschnellen Versprechungen geworden.
Umso spannender fand ich es, als Aqua seinen neuen KI-Copiloten angekündigt hat: ein direkt ins Testmanagement-Tool integrierter Assistent, der per Knopfdruck Anforderungen, Epics, Testfälle und sogar Testdaten automatisch generieren kann. Klingt zunächst wie Science-Fiction, weckt aber auch Erwartungen: Könnte hier tatsächlich das erste KI-basierte Werkzeug entstehen, das in der Praxis hält, was es verspricht?
Neugierig und durchaus auch ein wenig skeptisch habe ich den KI-Copiloten deshalb einem gründlichen Praxistest unterzogen. Mein Ziel war es, herauszufinden, was diese KI-Unterstützung im realen Alltagseinsatz tatsächlich leisten kann – und wo ihre Grenzen liegen.
In diesem Blogartikel teile ich meine ganz persönlichen Erfahrungen. Ehrlich, detailliert und nah an der Praxis. Denn gerade bei neuen Technologien gilt für mich: Erst ausprobieren, dann urteilen. Genau das habe ich getan – und hier sind meine Erkenntnisse.
Was ist der aqua KI-Copilot überhaupt?
Der Aqua KI-Copilot ist ein direkt in die Testmanagement-Plattform „aqua ALM“ integrierter Assistent, der auf Basis moderner KI-Technologien Anforderungen, Epics, Testfälle und Testdaten automatisch erzeugt. Dabei setzt Aqua auf die KI-Modelle von GPT (OpenAI), die durch ihre leistungsstarke Textgenerierung inzwischen breit bekannt sind.
Die Kernidee dahinter klingt faszinierend: Statt Anforderungen und Testfälle mühsam per Hand zu schreiben oder mühselig zu copy-pasten, erstellt die KI diese auf Knopfdruck – entweder aus simplen Prompts, hochgeladenen Dateien oder sogar gesprochener Sprache. Das Versprechen: eine enorme Zeitersparnis, mehr methodische Konsistenz und deutlich weniger Aufwand im Alltag.
Was verspricht der Hersteller konkret?
- Schnelle Erstellung von Anforderungen und Epics (z. B. User Stories, PRD-Dokumente, BDD-Szenarien) durch einfache Prompts.
- Automatische, methodisch korrekte Testfallgenerierung (z. B. Grenzwertanalyse, Äquivalenzklassen, Entscheidungstabellen).
- Kontextbezogene Generierung von passenden Testdaten für einfache wie komplexe Testfälle.
- Direkte, nahtlose Integration in das Aqua-Testmanagement-Tool ohne zusätzliche Tools oder externe Dienste.
Doch sind diese Versprechen realistisch, und wie gut funktioniert das in der Praxis wirklich? Im folgenden Erfahrungsbericht gehe ich dieser Frage auf den Grund und zeige dir detailliert, wo der aqua KI-Copilot glänzt – und wo er aktuell noch an Grenzen stößt.
Anforderungen mit KI erstellen – meine Erfahrungen
Eine der zentralen Funktionen des aqua KI-Copiloten ist die automatische Erstellung strukturierter Anforderungen. Die Idee dahinter ist bestechend einfach: Man gibt entweder einen kurzen, freien Prompt, lädt eine Datei hoch oder spricht einen Satz ins Mikrofon – und die KI generiert daraus eine vollständig ausgearbeitete User Story, ein BDD-Szenario oder eine klassische PRD-Anforderung. Klingt fast zu schön, um wahr zu sein. Aber hält der KI-Copilot auch, was er verspricht?
Um das zu testen, habe ich bewusst eine einfache Anforderung gewählt, wie sie in meinem Alltag als Testmanager regelmäßig vorkommt:
Beispielprompt:
„Die Benutzeroberfläche soll beim Login eine Zwei-Faktor-Authentifizierung erfordern, wenn das Gerät unbekannt ist.“
Das Ergebnis in der Praxis
Innerhalb weniger Sekunden lieferte der KI-Copilot tatsächlich eine überraschend sauber formulierte User Story inklusive klarer Akzeptanzkriterien. Die Sprache war verständlich, fachlich korrekt und ohne Nachbearbeitung sofort einsetzbar. Ein klares Plus, vor allem wenn man unter Zeitdruck arbeitet oder mit Anforderungen startet, die noch nicht vollständig klar definiert sind.
Beispiel-Ergebnis (gekürzt):
- User Story:
„Als Nutzer möchte ich, dass beim Login auf unbekannten Geräten eine Zwei-Faktor-Authentifizierung erforderlich ist, damit mein Account besser geschützt ist.“ - Akzeptanzkriterien:
- „Die Zwei-Faktor-Authentifizierung wird nur aktiviert, wenn das Gerät zuvor nicht registriert wurde.“
- „Die Authentifizierung erfolgt z.B. über SMS oder eine Authenticator-App.“
- „Nach erfolgreicher Authentifizierung wird das Gerät optional für zukünftige Logins gespeichert.“
Was mich besonders überzeugt hat:
- Schnelle Anpassbarkeit:
Falls das Ergebnis nicht ganz passt, genügt ein verbesserter Prompt, um das Ergebnis direkt anzupassen. - Direkte Integration in aqua:
Kein lästiges Copy-Paste aus externen Tools, keine Wechsel zwischen unterschiedlichen Anwendungen. - Einfache Verständlichkeit:
Die Ergebnisse sind nicht nur für Tester, sondern auch für Produktmanager, Entwickler oder andere Stakeholder direkt nutzbar.
Wo liegen die aktuellen Schwächen?
- Kein bestehender Projektkontext:
Einer der größten Nachteile derzeit ist, dass der KI-Copilot keinerlei Kontextwissen aus dem aktuellen Projekt besitzt. Jede Anforderung steht daher zunächst für sich allein. Möchte man Kontext integrieren, muss man diesen bei jedem Prompt erneut mitgeben, was schnell mühsam werden kann. - Keine Unterstützung bei der Promptgestaltung:
Gerade für Einsteiger oder Kolleginnen und Kollegen, die selten mit KI arbeiten, wären Musterprompts oder kleine Hilfestellungen zur Promptformulierung äußerst hilfreich. So könnten schnellere und qualitativ noch bessere Ergebnisse erzielt werden.
Mein persönliches Zwischenfazit zur Anforderungserstellung:
Für erste Entwürfe und schnelle Ideen ist die KI-Unterstützung bei Anforderungen schon heute absolut hilfreich und bringt eine deutliche Zeitersparnis. Gleichzeitig ist für komplexere oder projektspezifischere Anforderungen immer noch etwas manuelle Nacharbeit notwendig.
Doch schon jetzt steht für mich fest: Der aqua KI-Copilot erleichtert das tägliche Erstellen und Strukturieren von Anforderungen erheblich – wenn auch noch nicht ganz perfekt.
KI-generierte Epics – vom Feature-Wunsch zum Backlog
Ein weiterer wichtiger Bestandteil im Alltag eines Testmanagers sind Epics: Sie bündeln größere Features oder komplexe Anforderungen, die anschließend in kleinere User Stories heruntergebrochen werden. Auch hier verspricht der aqua KI-Copilot eine praktische Unterstützung: Man gibt ihm eine grobe Idee, und er generiert daraus automatisch ein Epic inklusive sinnvoller Unteranforderungen.
Doch funktioniert das tatsächlich so einfach? Ich habe es ausprobiert – wieder anhand eines konkreten Beispiels aus meiner Praxis:
Mein Beispielprompt:
„Erstelle ein Epic für ein Benachrichtigungssystem bei sicherheitsrelevanten Vorfällen.“
So sah das Ergebnis konkret aus:
Innerhalb kürzester Zeit erhielt ich ein klar strukturiertes Epic mit folgenden automatisch generierten Unteranforderungen:
- Echtzeit-Benachrichtigungen:
„Benutzer sollen unmittelbar bei Auftreten eines sicherheitsrelevanten Vorfalls benachrichtigt werden.“ - Priorisierung nach Schweregrad:
„Vorfallbenachrichtigungen werden nach ihrer Sicherheitsrelevanz kategorisiert, um gezielte Aktionen zu ermöglichen.“ - Eskalationsmechanismen:
„Je nach Schweregrad sollen Vorfälle per E-Mail, SMS oder Push-Benachrichtigungen eskalieren.“ - Konfigurierbare Schwellenwerte:
„Benutzer können einstellen, bei welchen Ereignissen und ab welchen Schwellwerten sie benachrichtigt werden möchten.“
Jede einzelne Teilanforderung ließ sich anschließend direkt als eigene User Story oder Anforderung erstellen, mittels Prompt verfeinern und bearbeiten. Dadurch entstand ohne großen Aufwand aus einer vagen Idee ein klar strukturierter und direkt nutzbarer Epic für mein Projekt-Backlog
Die größten Vorteile in der Praxis:
- Schnelligkeit und Strukturierung:
In wenigen Minuten wurde aus einer einzigen Idee ein vollständiges, logisch gegliedertes Epic. Ein enormer Zeitgewinn gerade in der frühen Planungsphase. - Flexibilität und Anpassbarkeit:
Jede Unteranforderung lässt sich problemlos weiter anpassen oder detaillierter formulieren. Die generierten Texte bieten eine solide Grundlage, um direkt ins Fine-Tuning einzusteigen.
Die Schwächen – was fehlt noch?
- Kein Wissen über bestehende Inhalte:
Ähnlich wie bei der Erstellung von Anforderungen fehlt dem Copiloten aktuell jeglicher Projektkontext. Das heißt, bei jedem Epic wird der Status Quo ignoriert, was zu Doppelungen oder inhaltlichen Inkonsistenzen führen kann. - Gefahr von Redundanzen:
Ohne vorheriges Wissen über bereits existierende Anforderungen oder Epics läuft man Gefahr, redundante Inhalte zu erzeugen, was im Nachhinein zu zusätzlichem Aufwand führen könnte.
Mein Zwischenfazit zur Epic-Erstellung:
Die automatische Epic-Erstellung durch den aqua KI-Copiloten hat mich tatsächlich positiv überrascht. Der Zeitgewinn und die Qualität der strukturierten Ergebnisse sprechen für sich. Dennoch ist hier Vorsicht geboten: Gerade bei größeren, komplexeren Projekten muss man darauf achten, dass durch fehlendes Kontextwissen keine unnötige Doppelarbeit entsteht.
Für mich steht fest: Die Epic-Funktionalität ist ein starkes Feature mit enormem Potenzial – allerdings braucht es hier perspektivisch eine verbesserte Integration von bestehendem Projektwissen, um in der Praxis maximalen Nutzen zu entfalten.
Testfälle automatisiert generieren – mein persönliches Highlight
Kommen wir nun zum Herzstück eines jeden Testmanagement-Tools: den Testfällen. Jeder, der in der Qualitätssicherung arbeitet, weiß, wie zeitintensiv und manchmal monoton die manuelle Erstellung strukturierter Testfälle sein kann. Genau hier könnte der aqua KI-Copilot seine volle Stärke ausspielen: Er verspricht, automatisch Testfälle nach bewährten Testmethoden zu generieren – und das auf Knopfdruck.
Ich war deshalb besonders gespannt, wie gut die KI diese Aufgabe meistert. Um das zu überprüfen, habe ich eine typische Anforderung aus der Praxis gewählt und konkret getestet:
Beispielanforderung:
„Die Benutzeroberfläche muss bei der Anmeldung eine Zwei-Faktor-Authentifizierung verlangen, sobald ein unbekanntes Gerät erkannt wird.“
Methoden der Testfallgenerierung mit dem KI-Copilot
Der aqua KI-Copilot bietet zur automatisierten Testfallgenerierung folgende klassische Testmethoden an:
- Äquivalenzklassenanalyse
- Grenzwertanalyse
- Entscheidungstabellen
Ich habe für mein Praxisbeispiel sowohl eine Grenzwertanalyse als auch eine Entscheidungstabelle erstellen lassen, um die Qualität und Praxistauglichkeit direkt vergleichen zu können.
Praxis-Ergebnis 1: Grenzwertanalyse
Innerhalb weniger Sekunden lieferte mir der KI-Copilot mehrere Testfälle basierend auf Grenzwerten, etwa für die Anzahl von Fehlversuchen oder die Anzahl registrierter Geräte.
Ein Beispiel-Testfall (vereinfacht):
- Testfall: „Benutzer versucht sich von einem nicht registrierten Gerät anzumelden und gibt genau den Grenzwert (z.B. 3) für erlaubte Fehlversuche ein.“
- Erwartetes Ergebnis: „Nach Erreichen des Grenzwerts ist der Zugang vorübergehend gesperrt und der Nutzer erhält einen Hinweis auf weitere Schritte.“
Alle generierten Testfälle waren methodisch absolut korrekt, logisch aufgebaut und fachlich plausibel.
Praxis-Ergebnis 2: Entscheidungstabelle
Auch die automatisch generierte Entscheidungstabelle beeindruckte durch ihre Klarheit. Die KI berücksichtigte logische Bedingungen, wie „Gerät bekannt/unbekannt“ und „korrekte/inkorrekte 2FA“, systematisch und nachvollziehbar.
Ein kurzer Ausschnitt:
Gerät bekannt | 2FA korrekt | Zugang gewährt |
Ja | Ja | ✅ Ja |
Ja | Nein | ❌ Nein |
Nein | Ja | ✅ Ja |
Nein | Nein | ❌ Nein |
Das überzeugt mich am meisten:
- Methodisch saubere Ergebnisse:
Sowohl Grenzwertanalyse als auch Entscheidungstabellen wurden von der KI zuverlässig und korrekt erstellt. Fachlich gab es keine Kritikpunkte. - Schnelle und präzise Umsetzung:
Innerhalb kürzester Zeit standen klar strukturierte Testfälle zur Verfügung – eine enorme Zeitersparnis im Vergleich zur manuellen Erstellung.
Die Schwachstellen – was noch fehlt:
Trotz der hervorragenden Ergebnisse in der automatischen Generierung gibt es noch einige spürbare Einschränkungen, die man berücksichtigen sollte:
- Fehlende Parametrierung:
Aktuell generiert der Copilot die Testfälle statisch, ohne Variablen oder Parameter. Manuelle Nacharbeit bleibt erforderlich, etwa um Benutzernamen oder Passwörter nachträglich einzufügen. - Keine Kombination verschiedener Methoden:
Möchte man z.B. Grenzwertanalyse und Äquivalenzklassen kombinieren, muss man das aktuell noch selbst tun. Hier wäre eine kombinierte Methode per KI ideal. - Keine direkte Integration von Testdaten:
Die KI liefert zwar separat Testdaten, diese sind aber aktuell noch nicht parametriert
Mein Fazit zur Testfallgenerierung:
Die automatische Generierung von Testfällen ist für mich das absolute Highlight des aqua KI-Copiloten. Sie funktioniert erstaunlich gut und spart in der Praxis enorm viel Zeit – vor allem bei standardisierten und wiederkehrenden Testaufgaben.
Zwar bestehen noch Verbesserungspotenziale, insbesondere bei Parametrierung und Kombination von Methoden. Trotzdem bietet aqua mit dieser Funktion bereits jetzt echten Mehrwert, der gerade im Projektalltag deutlich spürbar ist.
Für mich ein klares Zeichen, wie stark KI-Unterstützung das tägliche Testmanagement in Zukunft erleichtern und prägen könnte.
Testdaten-Generierung – eine echte Hilfe oder nur Basisfunktion?
Gute Testfälle sind nur so effektiv wie die Qualität der verwendeten Testdaten. Jeder erfahrene Tester weiß, wie zeitintensiv es sein kann, relevante und aussagekräftige Testdaten manuell zu erstellen – besonders für komplexe oder datengetriebene Testszenarien. Genau deshalb habe ich mir die Funktion zur automatischen Testdaten-Generierung des aqua KI-Copiloten genau angesehen.
Der Copilot verspricht hier schnelle und passende Testdaten, die direkt aus zuvor generierten Testfällen abgeleitet werden. Doch wie gut funktioniert das in der Praxis? Ich habe es anhand eines konkreten Beispiels überprüft.
Praxisbeispiel: Zwei-Faktor-Authentifizierung
Für die bereits generierte Testfallserie zur Zwei-Faktor-Authentifizierung („Login mit unbekanntem Gerät“) sollte der Copilot nun passende Testdaten liefern, insbesondere für Grenzfälle und Negativtests.
Beispiel generierter Testdaten (stark vereinfacht):
- Positivtest:
- Benutzername: max.mustermann@example.com
- Passwort: SicheresPasswort123!
- Zweiter Faktor: 123456 (gültiger Code)
- Negativtest – ungültiger zweiter Faktor:
- Benutzername: max.mustermann@example.com
- Passwort: SicheresPasswort123!
- Zweiter Faktor: 654321 (ungültiger Code)
- Grenzfall – maximale Anzahl von Fehlversuchen:
- Fehlversuch 1: Zweiter Faktor falsch (111111)
- Fehlversuch 2: Zweiter Faktor falsch (222222)
- Fehlversuch 3: Zweiter Faktor falsch (333333)
Die erzeugten Daten waren auf Anhieb nachvollziehbar, realistisch und auf die zuvor erstellten Testfälle abgestimmt. Für einfache, funktionale Testszenarien stellte dies eine willkommene Zeitersparnis dar.
Was mir besonders positiv aufgefallen ist:
- Schnelle und direkte Bereitstellung:
Innerhalb weniger Sekunden hatte ich nutzbare, auf die jeweiligen Testszenarien zugeschnittene Daten – ohne manuelle Vorarbeit. - Klare Verbindung zu Anforderungen und Testfällen:
Die generierten Testdaten waren stets unmittelbar nachvollziehbar und fachlich sinnvoll. Das reduziert Fehler bei der späteren Ausführung.
Deutliche Schwachstellen – was noch fehlt:
Allerdings sind mir auch einige klare Limitierungen der Testdaten-Generierung aufgefallen, die vor allem im Kontext komplexerer oder automatisierter Tests ins Gewicht fallen:
- Keine Parametrierung möglich:
Aktuell liefert der KI-Copilot ausschließlich statische Werte. Eine nachträgliche Parametrierung ist nicht möglich und muss manuell erfolgen, was bei automatisierten oder datengetriebenen Testszenarien zusätzlichen Aufwand verursacht. - Keine Datenpools oder Wiederverwendbarkeit:
Die KI erzeugt jedes Mal neue Daten – ohne die Möglichkeit, bestehende Datensätze wiederzuverwenden oder in einem Pool vorzuhalten. Gerade für automatisierte Testumgebungen mit mehreren Durchläufen ist das eine klare Einschränkung. - Fehlende Verknüpfung mit Testfall-Variablen:
Es gibt derzeit noch keine automatische Verknüpfung zwischen generierten Testdaten und den jeweiligen Variablen der Testfälle, was zusätzlichen manuellen Anpassungsaufwand verursacht.
Mein persönliches Zwischenfazit zur Testdaten-Generierung:
Die automatische Generierung von Testdaten durch den aqua KI-Copiloten hat mich durchaus positiv überrascht, bleibt aber aktuell eher auf Basisfunktionalität beschränkt. Sie bietet eine wertvolle Unterstützung bei einfachen Testszenarien und spart dort spürbar Zeit.
Für komplexe oder automatisierte Testfälle besteht allerdings noch deutliches Verbesserungspotenzial. Vor allem Funktionen wie Parametrierbarkeit, Wiederverwendbarkeit und die Integration mit automatisierten Testabläufen wären ein echter Mehrwert.
Kurz gesagt: Für einfache funktionale Tests ist diese Funktion gut nutzbar. Für komplexere Szenarien ist derzeit jedoch noch einige manuelle Nacharbeit nötig – hier wünsche ich mir eine schnelle Weiterentwicklung der KI-Funktionalität.
Bedienbarkeit im Praxiseinsatz – intuitiv oder gewöhnungsbedürftig?
Ein Testmanagement-Tool kann noch so mächtig sein – wenn die Bedienung kompliziert ist oder Nutzer sich ständig fragen müssen, wie sie an eine bestimmte Funktion kommen, wird die Software im Alltag schnell zur Belastung. Umso wichtiger ist deshalb eine intuitive, einfache und gut strukturierte Nutzerführung. Auch hier wollte ich wissen: Wie schlägt sich der aqua KI-Copilot im direkten Vergleich mit etablierten Tools wie Xray oder TestRail?
Ich bin bewusst ohne allgemeine Einführung in aqua gestartet. Meine einzigen Vorkenntnisse kamen ausschließlich aus dem spezifischen Copilot-Kurs – alles Weitere war echtes „Learning by Doing“, wie es im Berufsalltag oft passiert.
Meine ersten Schritte mit dem aqua KI-Copiloten
Die erste gute Nachricht: Nach dem Login ins Tool fühlte ich mich innerhalb weniger Minuten gut aufgehoben. Zwar unterscheidet sich aqua in der Navigation und in der Menüstruktur etwas von Tools, die ich bereits intensiv genutzt habe (z. B. Xray oder TestRail), doch wirklich kompliziert ist es nicht.
Dank des zuvor absolvierten Copilot-Kurses hatte ich zumindest grob im Kopf, wie die KI-Funktionen zu nutzen sind:
- Wo finde ich den KI-Copiloten überhaupt?
- Wie gebe ich Prompts ein, um Anforderungen oder Testfälle zu generieren?
- Wie bekomme ich Ergebnisse direkt ins Test-Backlog?
Die Funktionen waren übersichtlich platziert, und mit meinen Kurskenntnissen fand ich mich schnell zurecht.
Was macht aqua besonders gut?
- Intuitive Integration der KI-Funktionen:
Die KI ist kein separater Bereich, sondern tief und sinnvoll direkt dort integriert, wo man sie braucht – z. B. direkt im Bereich der Anforderungen oder beim Erstellen neuer Testfälle. - Klarheit im Design:
Wenige Klicks führen zu Ergebnissen. Die Nutzeroberfläche wirkt modern und gut durchdacht. - Erfolgreicher Einstieg dank gezieltem Copilot-Kurs:
Selbst ohne allgemeine Vorkenntnisse in aqua genügte der spezifische Copilot-Kurs, um mich schnell und effektiv zurechtzufinden.
Verbesserungspotenzial bei der Bedienung
Einige kleinere Schwachstellen bei der Bedienbarkeit sind mir dennoch aufgefallen:
- An manchen Stellen fehlende Hilfestellungen:
Gerade für Einsteiger könnten kurze Tooltipps oder Erklärtexte bei der KI-Nutzung sehr hilfreich sein. Nicht immer war mir sofort klar, welche Art von Prompt ich idealerweise eingeben sollte. - Keine Musterprompts verfügbar:
Es fehlt derzeit eine kleine Bibliothek an Standardprompts, mit denen Nutzer schnell starten und dann individuell anpassen können. - Navigation teilweise gewöhnungsbedürftig:
Aqua unterscheidet sich in der Struktur und Benutzerführung doch etwas von bekannteren Testmanagement-Tools. Nutzer, die etwa von Xray oder TestRail wechseln, benötigen eine kurze Eingewöhnungsphase.
KI-Integration – ein echter Pluspunkt
Besonders positiv überrascht hat mich die Tiefe der KI-Integration: Der KI-Copilot ist nicht nur als kleines Add-On implementiert, sondern wirklich eng mit allen wichtigen Funktionen von aqua verknüpft. Genau das macht ihn im Alltag so nützlich und vermeidet das ständige Hin- und Herspringen zwischen verschiedenen Tools.
Mein Zwischenfazit zur Bedienbarkeit:
Insgesamt empfand ich die Bedienbarkeit des aqua KI-Copiloten als intuitiv und überraschend gut gelungen – selbst ohne umfassende Vorkenntnisse über das Tool an sich. Das Tool ist modern, klar strukturiert und benötigt dank des Copilot-Kurses nur eine sehr kurze Eingewöhnung. Dennoch könnten kleinere Hilfestellungen (z. B. Musterprompts oder Tooltipps) gerade für neue Nutzer einen spürbaren Mehrwert bieten.
Die tiefe und intuitive Integration der KI-Funktionen innerhalb von aqua ist dabei ein echtes Highlight, das ich bislang bei keinem anderen Testmanagement-Tool in dieser Form erlebt habe.
Datenschutz und Integration von GPT – ein kritischer, aber differenzierter Blick
So beeindruckend die KI-Funktionen des aqua Copiloten auch sind – beim Einsatz von Künstlicher Intelligenz in professionellen Umgebungen stellt sich immer auch die Frage nach dem Datenschutz. Gerade wenn Tools wie GPT im Hintergrund arbeiten, ist Vorsicht angebracht. Umso erfreulicher war für mich die Feststellung: Die KI-Verarbeitung im aqua Copilot erfolgt vollständig innerhalb der EU.
Das bedeutet: Die Daten verlassen zu keinem Zeitpunkt den europäischen Rechtsraum – ein wichtiger Punkt für alle, die mit sensiblen oder datenschutzrelevanten Inhalten arbeiten.
Was passiert technisch im Hintergrund?
aqua nutzt für den KI-Copilot GPT-Modelle von OpenAI – aktuell ist GPT-4o der Maßstab. Diese Modelle laufen jedoch nicht über US-Server, sondern über eine EU-basierte Hosting-Infrastruktur, die DSGVO-konform betrieben wird. Das reduziert die rechtlichen Risiken deutlich, insbesondere in regulierten Branchen oder bei öffentlichen Auftraggebern.
Wenn man also einen Prompt eingibt oder eine Datei hochlädt, wird diese Information zwar an ein KI-Modell übermittelt, bleibt dabei aber innerhalb eines europäischen Datenraums.
Die Vorteile des EU-Hostings:
- Keine Übermittlung in Drittländer wie die USA
- Bessere Vereinbarkeit mit der DSGVO
- Vertrauenswürdige Infrastruktur für den Unternehmenseinsatz
- Minimiertes Risiko im Vergleich zu öffentlich zugänglichen GPT-Diensten
Trotzdem: Sorgfalt bleibt wichtig
Auch wenn das Hosting innerhalb der EU erfolgt, gilt natürlich weiterhin: Wer die KI nutzt, trägt Verantwortung für die Inhalte, die er hineingibt. Daher empfehle ich – gerade im produktiven Betrieb – den bewussten und reflektierten Umgang mit der KI:
- Keine personenbezogenen Daten oder Geschäftsgeheimnisse ohne sorgfältige Prüfung verwenden
- Interne Regeln zur Nutzung definieren (z. B. welche Rollen die KI nutzen dürfen)
- Inhalte anonymisieren oder abstrahieren, wenn möglich
Perspektivisch interessant: Eigene Modelle & On-Premise
Auch wenn GPT-4o aktuell beeindruckend leistungsfähig ist, bleibt für manche Organisationen – z. B. in der öffentlichen Verwaltung oder in der Finanzbranche – die Frage nach einer On-Premise-Alternative bestehen. Eine lokal betriebene Instanz eines (auch kleineren) KI-Modells könnte die volle Kontrolle über Datenströme ermöglichen.
Ideal wäre aus meiner Sicht:
- Eine Option zur Wahl zwischen EU-Cloud und lokalem Modell
- Möglichkeit zur Anpassung des KI-Verhaltens an Unternehmensrichtlinien
- Integration bestehender Sicherheitsinfrastrukturen
Mein Fazit zum Datenschutz:
Die EU-Hosting-Strategie von aqua ist ein starkes Argument für den produktiven Einsatz des KI-Copiloten – gerade im deutschsprachigen Raum. Die DSGVO-Konformität schafft Vertrauen und senkt Hürden, insbesondere für sicherheitsbewusste Organisationen.
Trotzdem bleibt die Empfehlung: KI-Nutzung braucht Regeln. Und langfristig wäre ein On-Premise-Angebot die Krönung – besonders für Unternehmen, die maximale Datenhoheit fordern.
aqua geht hier einen verantwortungsvollen Weg, der sich positiv vom Markt abhebt – und zeigt, dass moderne KI und Datenschutz keine Widersprüche sein müssen.
Zusammenfassung – Stärken & Schwächen auf einen Blick
Nach mehreren Tagen intensiver Arbeit mit dem aqua KI-Copiloten lässt sich eines klar sagen: Dieses Tool ist keine Spielerei, sondern ein ernstzunehmendes, professionelles Werkzeug mit echtem Mehrwert für den Testalltag. Die Funktionen sind praxisnah, durchdacht und – im richtigen Einsatzkontext – eine massive Arbeitserleichterung.
Natürlich ist nicht alles perfekt. Manche Funktionen wirken noch unausgereift, und gerade bei komplexeren Testdesigns stößt die KI (noch) an ihre Grenzen. Dennoch ist das Gesamtbild positiv – vor allem angesichts der Tatsache, dass aqua hier Pionierarbeit im Bereich KI-gestütztes Testmanagement leistet.
Hier meine komprimierte Einschätzung:
✅ Stärken des aqua KI-Copiloten
- Schnelle, strukturierte Erstellung von Anforderungen
Aus Prompts, Dateien oder Sprache entstehen innerhalb von Sekunden gut formulierte User Stories, PRDs oder BDD-Szenarien – inklusive Akzeptanzkriterien. - Automatisierte Epic-Erstellung mit logischer Gliederung
Der Copilot zerlegt grobe Funktionsideen in konkrete, backlogfähige Unteranforderungen – ein echter Gewinn in frühen Projektphasen. - Methodisch fundierte Testfallgenerierung
Unterstützung für etablierte Verfahren wie Äquivalenzklassen, Grenzwertanalyse oder Entscheidungstabellen – sauber umgesetzt, direkt einsetzbar. - Testdaten automatisch ableitbar
Die KI erstellt passende Testwerte, auch für Grenz- und Negativtests – ideal für einfache funktionale Szenarien. - Intuitive Bedienung
Selbst ohne tiefere aqua-Vorkenntnisse (mit reinem Copilot-Kurs) ist der Einstieg schnell möglich. - Nahtlose Integration ins Tool
Kein Copy-Paste, keine Zusatzsoftware – die KI arbeitet direkt in den relevanten Modulen. - DSGVO-konformes EU-Hosting
Alle Prompts und Datenverarbeitungen bleiben im europäischen Rechtsraum – ein entscheidender Vorteil für viele Unternehmen.
⚠️ Verbesserungspotenzial – was noch fehlt
- Kein Projektkontext verfügbar
Der Copilot kennt weder bestehende Anforderungen noch vorhandene Epics – alles muss beim Prompt erneut erklärt werden. - Keine Parametrierung von Testfällen und Testdaten
Variablen wie Benutzername oder Passwort müssen manuell ergänzt werden; für automatisierte Tests ist das zu statisch. - Keine Kombination verschiedener Testmethoden
Wer z. B. Äquivalenzklassen mit Grenzwertanalyse verknüpfen möchte, muss das derzeit manuell tun. - Fehlende Wiederverwendbarkeit von Testdaten
Es gibt keine Datenpools, keine Speicherung und keine strukturierte Verknüpfung zwischen Testdaten und Testfällen. - Keine Musterprompts als Starthilfe
Für Einsteiger wäre eine Sammlung von Beispielprompts hilfreich, um schneller produktive Ergebnisse zu erzielen. - Noch keine On-Premise-Option für maximale Datenhoheit
Das EU-Hosting ist ein guter Kompromiss, aber sensible Branchen würden von einer lokal installierbaren Variante profitieren.
Mein Gesamtfazit an dieser Stelle:
Der aqua KI-Copilot ist ein leistungsfähiges Werkzeug mit klaren Stärken und sinnvollem Anwendungsbereich – vor allem bei der strukturierten, methodischen Testvorbereitung. In der aktuellen Version bringt er deutliche Zeitersparnis und Qualitätssicherung in vielen Projektsituationen.
Die verbleibenden Schwächen sind aus meiner Sicht keine Showstopper – eher Punkte auf der Weiterentwicklungs-Agenda. Wer sich dieser Einschränkungen bewusst ist und die KI gezielt einsetzt, wird schnell spürbare Vorteile erkennen.
Mein Fazit in einem Satz:
Der aqua KI-Copilot ist kein Ersatz für Fachwissen, aber ein starker Beschleuniger – und wer ihn gezielt einsetzt, spart Zeit, bringt Struktur und hebt die Qualität seiner Arbeit auf ein neues Niveau.
Ich werde das Tool definitiv weiter beobachten – und es in zukünftigen Projekten dort einsetzen, wo es seine Stärken ausspielen kann: in der schnellen, strukturierten, methodisch fundierten Testvorbereitung. Und ich bin gespannt, wie sich der Copilot weiterentwickelt. Das Potenzial ist riesig – und der Anfang ist vielversprechend.
zum Kurs geht es hier: KI Copilot von aqua: Anforderungen, Testfälle und Testdaten mit KI generieren