👨‍👩‍👧‍👦

私たちの物語

心配する親たちのグループが、どこにも見つからないAIを作ることに夢中になった経緯。

心配から始まった

それは2024年のことでした。AIはどこにでもありました。私たちの子供たちは好奇心旺盛で、ChatGPTやGoogle Gemini、Claudeを友達と同じように使いたがっていました。私たちが使っていたのと同じように。

試させてみました。そして数時間以内に問題が始まりました。

8歳の子供がChatGPTに簡単な創作の質問をしたところ、暴力的なイメージを含む内容が返ってきて、寝る前に説明しなければなりませんでした。別の子供は歴史的な出来事について尋ねた後、戦争犯罪についての詳細で大人向けの説明を受けて、目に見えて動揺していました。

これらは特殊なケースではありませんでした。私たちが知っている家族に一貫して、予測不可能に起こっていました。

私たちはあらゆる手段を試しました

私たちは数ヶ月を費やして、主流のAIツールを子供たちに安全に使わせようとしました。カスタムシステムプロンプトを試しました。監視を試しました。「キッズモード」ブラウザ拡張を試しました。ペアレンタルコントロールを試しました。

何も一貫してうまくいきませんでした。根本的な問題は、これらのツールが子供を念頭に置いて作られていなかったことです。安全性は後から考えられたもので、大人向けに設計されたシステムの上に薄いフィルターがかけられているだけでした。

私たちの子供たちはもっと良いものに値しました。すべての子供がもっと良いものに値しました。

すべてを変えたチーム

私たちはただの親でした。しかし、技術、教育、デザイン、製品開発のスキルを持つ親でした。だからこそ、何かをすることに決めました。

私たちは、デジタルウェルネスについて長年書いてきたテルアビブの子供の発達専門家、レイチェル・コーエン博士に連絡を取りました。そして、AIの安全性について子供の露出に警鐘を鳴らしていたAI安全研究者、サラ・ミッチェル博士にも。3か国の教育者、トラウマを扱う子供の心理学者、そして私たちとは非常に異なるコミュニティの親たちを招きました。

私たちは一つの質問をしました。「子供にとって本当に安全なAIとはどのようなものか?」

その答えを作るのに18ヶ月かかりました。

私たちが作ったもの

Piepieはフィルター付きのChatGPTではありません。子供向けAIのあるべき姿をゼロから再構築したものです。すべてのデザイン決定は「これは子供にとって正しいか?」という一つの質問を念頭に置いて行われました。

4層の安全システム。Piepieが本当の友達のように感じられる記憶。子供がメールアカウントを持つ必要のないワンコードログイン。子供の信頼を裏切ることなく保護する親通知システム。家族が単一の世界観を押し付けることなく価値観を共有できるイデオロギーガイドライン。

すべては、親、心理学者、教育者のチームが一緒に座って「本当に役立つものは何か?」と問いかけた結果です。

あなたへの約束

子どもを最優先

すべての決定は、あなたの子どもの幸福を最優先に考えて行われます。

コミュニティ主導

私たちは親が親のために作っています。私たちのコミュニティが、私たちのすべてのアップデートを形作る手助けをしています。

安全は決して止まらない

私たちの安全システムは、子どもの安全とAIについて学ぶにつれて常に更新されています。

私たちは、自分たちの子どもたちのために存在してほしいAIを作りました。あなたも彼らと同じように気に入ってくれることを願っています。

- Piepieチーム