米国のAI企業であるOpenAIは、AIの安全リスクに真剣に取り組んでおり、AIの安全性、セキュリティ、信頼性の向上に向けて自主的な取り組みを行っています。同社は、フロンティアAIモデルに関連するリスクに焦点を当て、Preparednessという新しいチームを立ち上げ、これらのモデルを評価・評価することに取り組んでいます。また、同チームは、高度な能力を持つAIシステムの安全性と説明責任を確保するために、リスクに基づいた開発ポリシーを策定する予定です。OpenAIはPreparednessチームの人材を募集し、AI Preparedness Challengeを開催して、懸念事項の可能性を特定し、チームの候補者を見つける取り組みを行っています。