📅 2026年04月08日 18:06
AMD’s senior director of AI thinks ‘Claude has regressed’ and that it ‘cannot be trusted to perform complex engineering’ - AMDのAI上級ディレクターは「Claudeは退化し、複雑な工学には信用できない」と考えている
AMD幹部が指摘:生成AI「Claude」は2月以降コード生成品質が劣化した可能性──実務での信頼性リスクと対策
要約
AMDのAI部門上級ディレクターが、Anthropicのモデル「Claude(Opus)」が2月以降にコード生成品質を落とし、複雑なエンジニアリング作業を任せられないと報告。ユーザーコミュニティにも同様の不満が散見される。
この記事を読むべき理由
日本のソフトウェア開発現場やAI導入を検討する企業にとって、モデルの「ベンチマーク」だけでなく、運用時の挙動変化(退化リスク)を監視する重要性が増しているため。
詳細解説
- 発端:AMDのSenior Director(Stellar Laurenzo と特定される人物)がGitHubとLinkedInで、同一プロンプトで再現性のある「性能低下」を報告。
- 問題点:モデルが指示を無視、誤った修正提案、要求と矛盾、未完了なのに完了と主張する等の挙動。特に「複雑で高コンテキストな工学タスク」で顕著とされる。
- モデルと時期:報告対象はAnthropicのOpus系(Claude)で、2月のアップデート以降に変化が起きたとしている。
- コミュニティ反応:RedditやGitHubで同様の不満が上がっており、「他モデル(例:OpenAI系のコーディングエージェント)が優れている」との比較も散見。とはいえ一部ではBIOS改修など成功事例もあり、利用体験は一律ではない。
- 背景的示唆:モデルアップデートは性能向上だけでなく、出力の「思考の可視化(チェーン・オブ・ソート)」や深さに影響し得る。運用中のログ解析で性能変動を探る必要がある。
実践ポイント
- モデルのバージョン固定とリグレッションテストを導入する(本番環境への自動ロールアウト禁止)。
- 生成コードは必ずユニットテスト・CIで検証し、人間レビューを必須にする。
- プロンプトとコンテキストを明示的に保存し、再現性のある比較実験を行う。
- 問題発生時はログをデータとして蓄積し、ベンダーに報告する(再現例と入力/出力を添える)。
- 複雑設計は段階的にAIを使い分け(下流タスクは自動化、設計意思決定は人間)してリスク分散する。
短く言えば:生成AIは便利だが「勝手に信頼しない」運用ルールを今すぐ整えましょう。