👨‍👩‍👧‍👦

Unsere Geschichte

Wie eine Gruppe besorgter Eltern besessen davon wurde, die KI zu entwickeln, die wir nirgendwo anders finden konnten.

Es begann mit Sorgen

Es war 2024. KI war überall. Unsere Kinder waren neugierig – brillant, unersättlich neugierig. Und sie wollten ChatGPT, Google Gemini und Claude nutzen, genau wie ihre Freunde. Genau wie wir.

Wir ließen sie es ausprobieren. Und innerhalb weniger Stunden begannen die Probleme.

Eines unserer Kinder – acht Jahre alt – stellte ChatGPT eine einfache Frage zum kreativen Schreiben und erhielt Inhalte mit gewalttätigen Bildern, die wir ihm vor dem Schlafengehen erklären mussten. Ein anderes kam zurück, nachdem es nach einem historischen Ereignis gefragt hatte, und erhielt eine detaillierte, erwachsenenorientierte Erklärung von Kriegsverbrechen, die sie sichtlich verstörte.

Das waren keine Einzelfälle. Das passierte regelmäßig, unvorhersehbar, in Familien, die wir kannten.

Wir haben alles versucht

Wir verbrachten Monate damit, die gängigen KI-Tools für unsere Kinder sicher zu machen. Wir versuchten benutzerdefinierte Systemaufforderungen. Wir versuchten Aufsicht. Wir versuchten "Kinder-Modus"-Browsererweiterungen. Wir versuchten elterliche Kontrollen.

Nichts funktionierte konsequent. Das grundlegende Problem war, dass diese Tools nicht mit Blick auf Kinder entwickelt wurden. Sicherheit war ein nachträglicher Gedanke – eine dünne Schicht von Filtern auf einem System, das für Erwachsene konzipiert war.

Unsere Kinder verdienten Besseres. Jedes Kind verdiente Besseres.

Das Team, das alles verändert hat

Wir waren nur Eltern. Aber wir waren Eltern mit Fähigkeiten – in Technologie, in Bildung, im Design, in der Produktentwicklung. Also beschlossen wir, etwas dagegen zu unternehmen.

Wir haben Spezialisten für Kinderentwicklung, Forscher für KI-Sicherheit, Pädagogen aus drei Ländern, einen Kinderpsychologen, der mit Traumata arbeitet, und Eltern aus sehr unterschiedlichen Gemeinschaften hinzugezogen.

Wir stellten eine Frage: "Wie würde wirklich sichere KI für Kinder tatsächlich aussehen?"

Die Antwort dauerte 18 Monate, um sie zu entwickeln.

Was wir gebaut haben

Piepie ist nicht ChatGPT mit einem Filter. Es ist eine von Grund auf neu gedachte Vorstellung davon, wie KI für Kinder sein sollte. Jede Designentscheidung wurde mit einer Frage im Kopf getroffen: "Ist das richtig für ein Kind?"

Das vierstufige Sicherheitssystem. Das Gedächtnis, das Piepie wie einen echten Freund erscheinen lässt, der sich an dich erinnert. Der Ein-Code-Login, der keine E-Mail-Konten für Kinder erfordert. Das Benachrichtigungssystem für Eltern, das Kinder schützt, ohne ihr Vertrauen zu verraten. Die ideologischen Richtlinien, die es Familien ermöglichen, ihre Werte zu teilen, ohne eine einzige Weltanschauung aufzuzwingen.

All das entstand aus unserem Team von Eltern, Psychologen und Pädagogen, die zusammen saßen und fragten: "Was würde wirklich helfen?"

Unser Versprechen an Sie

Kinder zuerst

Jede Entscheidung wird mit dem Wohlbefinden Ihres Kindes als oberste Priorität getroffen.

Gemeinschaftsorientiert

Wir sind Eltern, die für Eltern bauen. Unsere Gemeinschaft hilft, jedes Update, das wir machen, zu gestalten.

Sicherheit hört nie auf

Unsere Sicherheitssysteme werden ständig aktualisiert, während wir mehr über Kindersicherheit und KI lernen.

Wir haben die KI entwickelt, die wir uns für unsere eigenen Kinder gewünscht haben. Wir hoffen, dass Sie sie genauso lieben wie sie.

- Das Piepie-Team