エピソード

  • 私立ずんだもん女学園放送部 podcast 20260227
    2026/02/26
    youtube版(スライド付き) 関連リンク Boris Cherny氏がシェアした、CLAUDE.mdを理解する 本記事は、Anthropic社のスタッフエンジニアであるBoris Cherny氏が提唱した、AIコーディングエージェント「Claude Code」を最大限に活用するための設定ファイル「CLAUDE.md」の設計思想を解説したものです。このファイルは、プロジェクトのルートディレクトリに配置することで、AIに対して「チームのルール」や「作業の進め方」を伝える「外部メモリ」として機能します。新人エンジニアの方にとっても、AIを単なるチャット相手ではなく、頼れる「自律的なチームメンバー」として教育するための最高のガイドとなります。 主な要点は以下の通りです: 「Planモード」による思考の分離: 複雑なタスク(3ステップ以上の作業や設計判断)では、AIがいきなりコードを書き始めるのを防ぎ、まずは具体的な「計画」を立てさせます。人間とAIが実装方針に合意してから作業を開始することで、意図しないコードの書き換えや手戻りを最小限に抑えます。 「サブエージェント」によるコンテキスト管理: AIが一度に保持できる記憶容量(コンテキストウィンドウ)には限りがあります。リサーチや並列分析などの重いタスクは、別のAIインスタンス(サブエージェント)に切り出して分担させることで、メインの作業環境をクリーンに保ち、思考の精度を維持します。 「自己改善ループ」の構築: 人間がAIのミスを修正した際、その教訓をtasks/lessons.mdというファイルにパターンとして記録させます。これをAIに随時参照させることで、セッションをまたいでも同じ失敗を繰り返さない「成長するAI」を実現します。 品質担保の徹底と自律的なバグ修正: テストやログによる動作証明ができるまで「完了」と見なさない厳格なルールを設けます。また、バグ報告に対しては、人間に指示を仰ぐのではなく、AI自らがログを確認して自律的に解決(Zero context switching)することを目指します。 コア原則(シンプル・根本解決・最小影響): 過剰な設計を避け、一時しのぎではない根本的な原因解決を行い、必要な箇所だけを変更するという、シニアエンジニア基準の品質をAIに求めます。 これらの指針をCLAUDE.mdに定義することで、AIの自律性を引き出し、開発チーム全体の生産性を劇的に向上させることが可能になります。 引用元: https://qiita.com/uno_ha07/items/5820d195510861b5be71 入社前から自分の仕事を奪うセキュリティレビューAIエージェントを作った 本記事は、Sansan株式会社のプロダクトセキュリティグループでインターンを経験した学生が、セキュリティ設計レビューを自動化するAIエージェント「Hayami」を開発した事例を紹介しています。 1. セキュリティ設計レビューの課題 セキュリティ設計レビューとは、開発者が実装に入る前に設計書を確認し、セキュリティ上の懸念を洗い出す工程(シフトレフト)です。Sansanでは、160項目を超える社内ガイドラインとの照合を少人数で対応しており、以下の課題を抱えていました。 網羅性の担保: 膨大なガイドラインを全ての案件で手動チェックするのは限界がある。生産性のボトルネック: 開発側のスピードがAI活用で加速する中、レビューが遅延すると組織全体の生産性を下げてしまう。 2. なぜ独自開発か(AWS Security Agentとの比較) 既存の「AWS Security Agent」も検討されましたが、以下の理由から独自開発の「Hayami」が採用されました。 カスタマイズ性: 頻繁に更新される160以上の社内ガイドラインを、既存ツールに適応させ続ける運用コストが高い。ワークフローの統合: Slackをベースとした既存の依頼フローや、レビュー対象の判定基準といった独自の運用に柔軟に組み込む必要があった。 3. AIエージェント「Hayami」の実力 Hayamiは、Slackから設計書とガイドラインを読み込み、LLM(大規模言語モデル)を用いて分析結果を出力します。 高い精度: ベンチマーク測定の結果、社内ガイドラインへの適合率は95.8%に達し、セキュリティで最も回避すべき「抜け漏れ」は0%を記録しました。リードタイム削減: 初動のレビューコメントをAIが代行することで、レビュー終了までの時間を最大18.76...
    続きを読む 一部表示
    1分未満
  • 株式会社ずんだもん技術室AI放送局 podcast 20260226
    2026/02/25
    youtube版(スライド付き) 関連リンク ClaudeはなぜRAGを捨てたのか?コード生成における「エージェント型検索」の優位性 LLM(大規模言語モデル)に特定の知識を与える手法として、現在は「RAG(検索拡張生成)」が主流です。しかし、Claudeの開発元であるAnthropic社は、コード生成の領域においてRAGから「エージェント型検索(Agentic Search)」へと舵を切りました。本記事では、その背景にある技術的な理由とメリット・デメリットを解説しています。 1. エージェント型検索とは何か? 従来のRAGは、事前にドキュメントをベクトル化(インデックス化)して保存し、LLMが関連しそうな情報を「受動的」に受け取る仕組みでした。 対して「エージェント型検索」は、AIエージェント自身にgrepやglobといった標準的な検索ツールを渡します。AIは「この機能の実装箇所を探そう」といった仮説を立て、必要な情報が見つかるまで自律的に検索と読み込みを繰り返します。いわば、AIがエンジニアのように「自分でリポジトリを歩き回る」手法です。 2. Anthropicがエージェント型検索を選んだ3つの理由 圧倒的なパフォーマンスと「使用感」: ベンチマーク上の数値だけでなく、実際に使った際の「直感的な精度の高さ(Vibes)」が劇的に向上しました。「情報の鮮度」問題(Code Drift)の解消: コードは頻繁に更新されるため、RAG用のインデックスはすぐに陳腐化します。エージェント型検索は「現在の生のコード」を直接読みに行くため、常に最新の状態を反映できます。セキュリティとリスクの低減: 外部のベクトルデータベースに機密データを複製して保存する必要がなく、既存の安全な環境内のツールを利用するだけで済むため、情報漏洩リスクを抑えられます。 3. トレードオフ(代償) この手法は万能ではありません。AIが何度も検索試行を繰り返すため、RAGと比較して「応答の遅延(レイテンシ)」が大きく、また「消費トークン量(コスト)」も跳ね上がります。しかし、Anthropicは「精度とセキュリティのメリットは、コストを支払う価値が十分にある」と結論づけています。 まとめ AIアプリケーションの設計は、「静的なデータを検索する」形から、「AIエージェントが動的に探索する」形へとパラダイムシフトが起きています。特に情報の鮮度が重要なソフトウェア開発において、この「エージェント型検索」は今後のスタンダードなアーキテクチャになる可能性があります。新人エンジニアの皆さんも、単にRAGを組むだけでなく、AIに「道具(ツール)」を使わせて自律的に動かすという考え方に注目してみると、より高度なAI活用ができるようになるでしょう。 引用元: https://zenn.dev/manntera/articles/f3017ecba9c9c1 #2|スラッシュコマンドで回す開発 — プロセスを分解してAIに割り当てる 本記事は、AIを開発プロセスに本格的に組み込む「AI駆動開発」の第2段階(Phase 2:Hybrid Co-Driving)における具体的な設計思想と実践方法を解説したものです。新人エンジニアの方にとっても、将来的にAIを良きパートナーとして使いこなすための道標となる内容です。 1. 「人間が運転し、AIが実行する」分業モデル Phase 2では、人間が「運転席」に座り、意思決定と品質判断を担います。一方で、具体的な作業の実行はAIに任せます。この分業をスムーズにするために導入されたのが「スラッシュコマンド」という概念です。 これまでエンジニアが手作業で行っていた「ブランチ作成」「コードレビュー」「プルリクエスト(PR)作成」といった定型作業を、/branch-create や /code-review といったコマンドとして定義し、AIに実行を依頼するスタイルをとります。 2. プロセスの細分化と設計原則 AIに指示を出す際、「設計して」といった大きな粒度で投げると精度が安定しません。そこで重要なのが、業務プロセスを「入力・処理・出力」が明確なサブプロセスにまで分解することです。 コマンド設計においては、以下の2つの原則が挙げられています。 単一責任の原則(UNIX哲学): 1つのコマンドには1つの責務だけを持たせます。複数の役割を詰め込むとAIが混乱し、品質が低下するためです。パイプライン化: 小...
    続きを読む 一部表示
    1分未満
  • 株式会社ずんだもん技術室AI放送局 podcast 20260225
    2026/02/24
    youtube版(スライド付き) 関連リンク AIエージェントの性能差のキー、ハーネスエンジニアリング 2026年現在、AIエージェントの性能を左右するのは、LLMモデルそのものよりも、モデルを包み込み制御する周辺インフラ「ハーネス(Harness)」の設計であるという認識が一般的になっています。本記事では、このハーネスエンジニアリングの重要性と具体的な実践手法について解説されています。 ハーネスとは、モデルをCPUに例えた際の「OS」にあたる存在です。どれほどモデルが賢くても、コンテキスト管理やツール統合、メモリ管理が不十分であれば、エージェントとしての実力は発揮されません。事実、特定の実験ではモデルの重みを変えずにハーネスの設計を変更しただけで、タスクの成功率が6.7%から68.3%へと約10倍に跳ね上がった例もあります。 エンジニアがハーネス設計において意識すべき重要なポイントは以下の通りです。 コンテキスト管理の3原則(Reduce / Offload / Isolate) モデルが処理する情報(コンテキスト)が長すぎると、指示を忘れる「モデルドリフト」が発生します。これを防ぐため、古い履歴を要約して圧縮する(Reduce)、情報を外部ファイルに逃がし、汎用的なツール(bash等)でアクセスさせる(Offload)、重い副タスクはサブエージェントに任せる(Isolate)という設計が有効です。 ツールの選択と集中 エージェントに与えるツールは、多ければ良いというわけではありません。選択肢が多すぎるとモデルは混乱し、冗長な動作を繰り返します。不要なツールを削減し、シンプルで強力なツールに集約することで、意思決定の精度と速度が向上します。 自己検証と状態の引き継ぎ 長時間稼働するエージェントには、タスク完了前に「本当に終わったか」をチェックする自己検証ループ(Middlewareパターン)の実装が不可欠です。また、セッションをまたぐ場合は、gitの履歴や構造化された進捗ファイル(JSON)を活用し、次のセッションへ確実に状態を引き継ぐ仕組みが信頼性を担保します。 新人エンジニアへのアドバイスとして、最新モデルの選定に固執する前に、まずはこれらの「ハーネス」側の設計を見直すことが、投資対効果の高い開発につながります。ただし、モデルの進化スピードも速いため、ハーネス自体も「複雑に作り込みすぎず、必要に応じて軽量に作り直せる」柔軟な設計を心がけることが、2026年のエンジニアリングにおける最適解と言えるでしょう。 引用元: https://note.com/timakin/n/nc85957a9f710 Writing about Agentic Engineering Patterns 著名な開発者であるSimon Willison氏が、AIエージェントと共にソフトウェアを開発するための新しいプラクティス集「Agentic Engineering Patterns(エージェンティック・エンジニアリング・パターン)」の公開を開始しました。これは、AIを単なるチャットツールとしてではなく、自らコードを実行・テストし、自律的に改善を繰り返す「コーディングエージェント」として活用するための現代版デザインパターン集です。 本プロジェクトの核心は、プロのエンジニアが自身の専門知識をAIによって増幅(アンプリファイ)させ、開発を加速させることにあります。Willison氏は、非エンジニアが雰囲気でコードを書く「バイブコーディング」とは一線を画し、プロフェッショナルがツールを使いこなすための規律として「Agentic Engineering(エージェンティック・エンジニアリング)」を定義しています。 本プロジェクトは、1994年の名著『デザインパターン』にインスパイアされており、以下の2つの章からスタートしています。 コード生成は安価になった(Writing code is cheap now) 初期コードを書き出すコストがほぼゼロになった現在、これまでの開発の直感やチームの働き方をどのように変えていくべきか、その本質的な課題を扱います。レッド/グリーン TDD(Red/green TDD) テスト駆動開発(TDD)の手法が、エージェントに対して最小限の指示で正確かつ簡潔なコードを書かせるために、いかに強力な武器になるかを解説しています。 新人エンジニアにとって特に注目すべき点は、これが単なる過去の記事の蓄積ではなく、時間の経過...
    続きを読む 一部表示
    1分未満
  • 株式会社ずんだもん技術室AI放送局 podcast 20260224
    2026/02/23
    関連リンク Agentic Software Engineering - The Future of Code 本ドキュメントは、AIエージェントがソフトウェア開発のプロセスに深く組み込まれる「エージェンティック(自律的)・ソフトウェア・エンジニアリング」という新たな時代の到来と、その中でのエンジニアの在り方を定義したガイドです。AIがコードを書くことが当たり前になる未来において、私たちがどのように思考をアップデートすべきかを説いています。 ■ 開発における「ボトルネック」の変化 これまでのソフトウェア開発では、仕様をコードに落とし込む「実装スピード」や「技術的なコーディング力」が重視されてきました。しかし、生成AIの台頭により、コードの生産自体はもはや開発の停滞要因(ボトルネック)ではなくなっています。現代の真の課題は、システムの肥大化に伴う「複雑性の管理」、開発者間の「コミュニケーション」、そして長期にわたってシステムの整合性をどう「維持」し続けるかという点にシフトしています。 ■ 新しい規律:Agentic Software Engineeringの定義 「Agentic Software Engineering」とは、人間だけでなく、確率的な振る舞い(Stochastic)をするAIエージェントが開発に関与することを前提とした、新しいエンジニアリングの規律です。AIは常に100%同じ結果を出すわけではない不確実性を伴う存在です。そのようなAIを開発プロセスに組み込みながら、いかにしてシステム全体の「信頼性」と「信頼(Trust)」を担保するかという手法や規律を扱うのがこの分野の核心です。 ■ これからのエンジニアに求められる役割 これからの時代、成功を収めるのは「単にコードを速く書ける人」ではありません。AIという自律的なエージェントを指揮する側に回り、以下の役割を果たせるエンジニアやチームが真の価値を持ちます。 明確な意図(Intent)の設定:AIに対して、何を作るべきかという目的と設計思想を正確に定義し、伝える能力。リスク境界の管理:AIが自律的に動く範囲を適切に定め、予期せぬ挙動によるリスクをコントロールする能力。証拠(Evidence)の要求:AIの成果物を鵜呑みにせず、それが仕様通りに動作しているか、セキュリティ上の問題がないかといった「証拠」を厳格に検証する姿勢。 ■ 新人エンジニアへのアドバイス 新人エンジニアの皆さんにとって、AIは非常に心強い味方です。しかし、AIに実装を任せられるようになるからこそ、「どうすればこのシステムが安全で信頼できるものになるか」という、より高い視点での「設計力」と「検証力」を磨くことが重要になります。 これからは「コードをどう書くか」というHowのスキルに加え、「何のためにどう設計し、どう正しさを証明するか」というエンジニアリングの本質的な力がより一層求められるようになります。AIというパートナーと共に、より大規模で高度なシステムを構築できる未来を楽しみに、この新しいエンジニアリングの形を学んでいきましょう。 引用元: https://agenticse-book.github.io/ SaaSは死なない、ただし「人間がUIを触る前提の設計」は終わる──AIエージェント時代のSaaS再設計論 2026年、AIエージェントの普及に伴い「SaaSは死んだ」という議論がなされていますが、本質的には「人間がUIを操作することを前提としたSaaS設計」が終焉を迎え、AIエージェントが利用することを前提とした「業務エンジン」へと進化していくフェーズにあります。本記事では、AIエージェント時代に生き残るSaaSの条件と、エンジニアが意識すべき新しい設計原則を解説しています。 1. 「UIファースト」から「APIファースト」への転換 これまでのSaaSは、人間が使いやすいUI/UXを提供し、作業効率を上げることが価値でした。しかし、AIエージェントがユーザーとなる時代では、SaaSは「APIを通じて操作されるデータ処理エンジン」へと変わります。画面の見やすさよりも、APIの表現力、データの一貫性、イベント連携(Webhook)の充実が重要視されます。 2. エージェント時代の4つの設計原則 AIエージェントとの統合を前提としたシステムには、以下の技術的要件が求められます。 Agent-Facing API: エージェントは「1つのAPI呼び出しで1つの業務を...
    続きを読む 一部表示
    1分未満
  • 私立ずんだもん女学園放送部 podcast 20260220
    2026/02/19
    youtube版(スライド付き) 関連リンク Measuring AI agent autonomy in practice Anthropicが、AIエージェントが実務環境でどの程度の「自律性」を持って活用されているかを分析した、非常に興味深い調査結果を公開しました。本記事は、エンジニア向けツール「Claude Code」と公開APIの膨大な利用データを匿名化して分析したもので、現場でエージェントがどのように使われ、人間との関係がどう変化しているかを解き明かしています。 まず、エージェントの自律的な連続稼働時間が大幅に増加していることが分かりました。Claude Codeのデータによると、人間が介入せずに作業を続ける時間は、わずか3ヶ月の間に約25分から45分超へとほぼ倍増しました。これはAIモデルの能力向上だけでなく、ユーザーがより難易度の高いタスクをエージェントに任せるようになり、システムとしての信頼性が高まっていることを示しています。 特に注目すべきは、経験豊富なユーザーほど監視のスタイルを「逐次承認」から「アクティブな監視」へと変化させている点です。初心者はエージェントの行動を一つずつ確認して承認する傾向にありますが、経験を積むにつれて自動承認をオンにする割合が増えます。一方で、エージェントがミスをしそうになった時の「割り込み(介入)」の頻度は高まっており、熟練ユーザーは「手放しにする」のではなく「要所で見守り、必要に応じて軌道修正する」という、より高度な連携を実現しています。 また、AI自身が「自分の分からないこと」を認識し、自ら作業を止めて人間に質問する回数は、人間が割り込む回数よりも多いことが判明しました。タスクが複雑になるほどAIからの質問が増えており、安全な自律性を保つためには、AIが不確実性を自覚して適切に「相談」する能力が不可欠であることが強調されています。 活用ドメインについては、現在は全体の約50%がソフトウェアエンジニアリング(コードの修正やビルドなど)に集中しています。多くのアクションは「やり直しが可能」な低リスクなものですが、金融やヘルスケアなどの高リスクな領域でも実験的な活用が始まっており、今後の課題として挙げられています。 新人エンジニアやエージェント開発者への提言として、Anthropicは「全ての操作に承認を求める」ような制約を設けるのではなく、ユーザーが挙動をリアルタイムで把握でき、いつでも介入できる「監視・介入の仕組み」を設計することが重要であると結論付けています。AIと人間がチームとして動く未来において、この「自律性の管理」は設計上の大きなテーマとなるでしょう。 引用元: https://www.anthropic.com/research/measuring-agent-autonomy Claude Code の Agent Skills を活用してリポジトリのオンボーディングを効率化する Wantedly Engineer Blog 本記事は、Wantedlyのエンジニアが社内ハッカソンにおいて、Anthropic社の開発者向けAIツール「Claude Code」の新機能である「Agent Skills」を活用し、新人エンジニアがプロジェクトに加わる際の「オンボーディング(導入・環境構築)」を効率化した事例を紹介するものです。 マイクロサービス開発の現場では、新しくチームに入ったメンバーが「ドキュメントが古くて全体像が掴めない」「環境構築で謎のエラーが出る」といった問題に直面し、多くの時間を費やしてしまうことがよくあります。著者はこの課題を解決するため、Claude Codeに「リポジトリの地図」と「自動化された手順」をSkillとして組み込み、AIがメンターのように新人をガイドする仕組みを構築しました。 1. Agent Skillsによる「自走型」オンボーディングの仕組み 具体的には、2つの主要なスキルを備えたClaude Codeプラグインを作成しています。 /onboarding: 対話を通じてリポジトリの設計思想やディレクトリ構成を学習する。/setup: 開発環境のセットアップを半自動で実行する。 2. AIを賢いメンターにするための3つの工夫 単にドキュメントを読み込ませるだけでなく、Agentが適切に動くための工夫が凝らされています。 リポジトリの「お作法」をコンテキスト化する: READMEには書かれない「どの処理をどこに書くべきか」という設計規約や、推奨・非推奨の...
    続きを読む 一部表示
    1分未満
  • 株式会社ずんだもん技術室AI放送局 podcast 20260219
    2026/02/18
    youtube版(スライド付き) 関連リンク GitHub Agentic Workflowsを発表 – リポジトリの自動化を実現 GitHubは、AIエージェントを活用してリポジトリの管理・改善を自動化する新機能「GitHub Agentic Workflows」をテクニカルプレビューとして発表しました。これは、従来の手続き的なスクリプトでは自動化が難しかった「判断や文脈の理解を伴うタスク」を、自然言語(Markdown)による指示でAIに実行させる仕組みです。 GitHub Actionsの強力なインフラをベースにしつつ、複数のコーディングエージェント(GitHub Copilot, Claude, OpenAI等)を選択して組み込むことが可能です。GitHubはこの仕組みを、CI/CDを拡張し、AIが継続的にソフトウェア開発ライフサイクルを支える「Continuous AI(継続的AI)」という概念の実現に向けた一歩として位置づけています。 概要 GitHub Agentic Workflowsは、開発者が「望む結果」をMarkdownファイルに記述し、それをリポジトリに追加することで動作します。エージェントはリポジトリのコンテキストを読み取り、推論を行いながらタスクを遂行します。 主な活用領域として、以下のような「判断力」を必要とする繰り返しタスクが挙げられています。 継続的なトリアージ: 新規Issueの要約、適切なラベル付け、担当者へのルーティング。ドキュメントの維持: コードの変更を反映したREADMEやドキュメントの自動更新。コードの品質向上: CI失敗時の原因調査と修正案の提示、コードの簡素化やリファクタリング。テストの改善: カバレッジを分析し、必要性の高いテストケースを自動で追加。 安全性と制約 本機能は、エンタープライズ環境でも安心して利用できるよう、強力なガードレールと制御機構を備えています。 権限の最小化: ワークフローはデフォルトで「読み取り専用」権限で実行されます。コードの変更やコメントの投稿といった書き込み操作には、サニタイズされた出力を通じた明示的な承認設定が必要です。サンドボックス実行: エージェントは隔離された環境で実行され、使用可能なツールの制限やネットワークの分離によって、予期せぬ挙動や攻撃から保護されます。人間による最終確認: 最も重要な点として、エージェントが作成したプルリクエストが「自動的にマージされることはありません」。常に人間がレビューし、承認するプロセスが組み込まれています。 新人エンジニアへのメッセージ この機能は、エンジニアから仕事を奪うものではなく、リポジトリを「常に健康的で読みやすい状態」に保つための強力な助手です。Issueが整理され、ドキュメントが最新に保たれ、CIの失敗理由が解説される環境は、特にプロジェクトに参加したばかりのメンバーにとって大きな助けとなります。AIに任せられる定型外の雑務を自動化することで、エンジニアはよりクリエイティブな設計や実装に集中できるようになります。 引用元: https://github.blog/jp/2026-02-16-automate-repository-tasks-with-github-agentic-workflows/ New in Agent Builder: all new agent chat, file uploads + tool registry LangChainが提供する、AIエージェント構築プラットフォーム「LangSmith Agent Builder」に大幅なアップデートが実施されました。今回の更新の核となるのは「エージェントを、まるで一緒に働くチームメイトのように身近な存在にする」というコンセプトです。 新人エンジニアの方にとっても、AIエージェントの活用の幅がぐっと広がる注目の新機能について解説します。 1. 万能な「チャット」エージェントの登場 これまでは、特定のタスク(例:メール送信専用、チケット管理専用など)ごとにエージェントを作成する必要がありました。しかし、新しい「Chat」エージェントは、ワークスペースに接続されている全てのツール(Slack、Gmail、Linearなど)にアクセス可能です。特定の用途を決めずに、「未完了のチケットを要約して」や「今日のサポート依頼をまとめて」といった指示を投げかけるだけで、エージェントが自ら適切なツールを選択し、実行プランを立てて処理してくれます。 2. 「会話」からエージェントを自動生成 今回のアップデートで最も画期的なのが、チャットでのやり取りをそのまま「繰り返し利用可能な...
    続きを読む 一部表示
    1分未満
  • 株式会社ずんだもん技術室AI放送局 podcast 20260218
    2026/02/17
    youtube版(スライド付き) 関連リンク Claude Codeで開発を全自動化する - Orchestrator型Skillの設計と実践 株式会社ヘンリーのエンジニアによる、AIコーディングアシスタント「Claude Code」を駆使して開発業務を高度に自動化した事例の紹介です。 1. 背景と課題:AIに拘束される「ペアプロ型」からの脱却 医療業界向けプロダクトを開発する同社では、エンジニアに深いドメイン知識が求められます。著者は「実装にかける時間を減らし、学習時間を増やしたい」と考えましたが、従来のClaude Code活用はAIとの対話を通じた「ペアプロ型」であり、AIの出力を人間が常に見守り、指示を出し続けなければならないという課題がありました。これでは、人間が作業から離れて別のことに集中することができません。 2. 解決策:Orchestrator型Skillによる完全自動化 そこで導入されたのが、Claude Codeの「Skills」機能を活用したOrchestrator(司令塔)型の設計です。これは、人間が最初にタスクを指示した後は、AIが自律的に調査からプルリクエスト(PR)作成までを完走する仕組みです。 新人エンジニアが理解しておくべき、この設計のポイントは以下の3点です。 Skillsによる手順の定義: プロジェクトの前提知識(CLAUDE.md)とは別に、「作業の進め方」をSkillとして定義しました。これにより、必要な時だけ特定の手順をAIに読み込ませ、AIが迷わずに自走できる環境を整えました。SubAgentによるコンテキスト管理: 1つのAIに全てをやらせようとすると、記憶(コンテキスト)が一杯になり精度が落ちます。そこで、「調査」「設計」「実装」「PR作成」といった各ステップを、独立したコンテキストを持つ「子エージェント(SubAgent)」として実行し、親であるオーケストレーターがその進行を管理する構成をとりました。AIによるセルフレビュー体制: 実装の品質を高めるため、「作業担当Agent」とは別に「レビュー担当Agent」を用意しました。人間がコードレビューを行うように、AI同士で「実装→レビュー→修正」のサイクルを回すことで、人間が介在しなくても精度の高い成果物を出せるように工夫されています。 3. 導入の効果とメリット この仕組みにより、開発者は最初のタスク確認さえ終われば、あとはVSCodeを閉じてドメイン知識の学習や他のタスクに時間を充てられるようになりました。実装の深い理解についてはペアプロ型に軍配が上がりますが、PR作成後のセルフレビューを通じて補完できており、トータルの開発速度と作業効率は劇的に向上したと報告されています。 まとめ:新人エンジニアへの示唆 本記事は、AIを単なる「チャット相手」として使うのではなく、「自律的に動くエージェントの集合体」として設計することで、エンジニアの創造的な時間を最大化できることを示しています。コンテキストの節約や役割の分離といった考え方は、将来のAI活用において非常に重要なスキルとなるでしょう。 引用元: https://dev.henry.jp/entry/claude-code-orchestrator Qwen3.5: Towards Native Multimodal Agents アリババ(Alibaba)のQwenチームより、次世代モデルシリーズの先駆けとなる「Qwen3.5」が発表されました。今回のリリースは、テキストだけでなく画像などの視覚情報も直接扱う「ネイティブなマルチモーダル・エージェント」の実現に向けた大きな一歩となっています。 本シリーズで特筆すべきは、オープン重み版として公開された「Qwen3.5-397B-A17B」の革新的なアーキテクチャです。このモデルは「混合専門家(Mixture of Experts: MoE)」と呼ばれる仕組みを採用しており、総パラメータ数は3970億という巨大なものですが、推論時に実際に稼働するのはそのうちの170億パラメータのみです。これにより、高い知能を維持したまま、推論のスピード向上とコスト削減を両立させています。さらに、Linear Attention(Gated Delta Networks)という技術を組み合わせることで、メモリ効率や処理速度を極限まで高めているのが技術的な見どころです。 また、商用API版である「Qwen3.5 Plus」も同時に発表されました。こちらは最大100万トークンという極めて長いコンテキスト(一度に読み込める情報の長さ)をサポートしており、長大な...
    続きを読む 一部表示
    1分未満
  • 株式会社ずんだもん技術室AI放送局 podcast 20260217
    2026/02/16
    youtube版(スライド付き) 関連リンク GPT5.2が理論物理学の定説を覆し、シンプルな新公式を発見 米OpenAIは2026年2月13日、最新のAIモデル「GPT-5.2」が理論物理学における未解決問題を解明したと発表しました。これは、AIが単なるデータ処理ツールを超え、科学的発見の主体となり得ることを示した歴史的な成果です。 【発見の内容:物理学の定説を覆す】 今回の発見の舞台は、素粒子物理学の「グルーオン散乱」という分野です。グルーオンとは、原子核の中で強い相互作用(粒子を繋ぎ止める力)を媒介する素粒子です。これまでの物理学の教科書では、特定の条件下(ヘリシティ構成)においてグルーオンの相互作用は「ゼロ」になると定義されてきました。 しかし、GPT-5.2はこの定説に反し、特定の条件下(half-collinear regime)では相互作用が消滅せず、非ゼロの値を保つことを突き止めました。さらに、その複雑な現象を極めてシンプルな数式で記述できる新公式を発見し、証明まで完了させたのです。 【エンジニアが注目すべき「発見のプロセス」】 今回の成果で最も驚くべき点は、GPT-5.2が「仮説の立案(推測)」から「厳密な数学的証明」までを自律的に遂行したプロセスにあります。 パターンの特定と予想:まずGPT-5.2 Proモデルが、人間が計算した膨大な数式を簡略化し、そこに潜む未知のパターンを特定して「一般公式」を推測しました。12時間の自律思考による証明:次に、内部の推論強化モデルが約12時間にわたる自律的な思考(Chain of Thoughtの高度な形態)を行い、推測した公式が数学的に正しいことを一貫して証明しました。 これは、従来のAIが「既存の知識を要約・整理する」ものだったのに対し、今回のモデルは「人類がまだ知らない未知の真理を論理的に導き出す」フェーズに到達したことを意味しています。 【検証と今後の影響】 この発見は、プリンストン高等研究所の著名な物理学者ニマ・アルカニ=ハメド氏らによって検証され、その正当性が確認されています。専門家は、AIと人間の専門家が高度な科学探究において協働する新たなモデルケースになると高く評価しています。 研究チームは既にこの手法を「グラビトン(重力子)」の解明にも応用し始めており、物理法則のさらなるアップデートが期待されています。 エンジニアにとって、このニュースは「推論特化型AI」の可能性を強く実感させるものです。AIを単なるコーディング補助として使うだけでなく、複雑な論理構造の検証や、未知の最適解を探索する「パートナー」として捉える時代の幕開けと言えるでしょう。 引用元: https://www.sbbit.jp/article/cont1/180888 【緊急】AIエージェントの12%がマルウェアだった。OpenClaw史上最悪のサプライチェーン攻撃の全貌 2026年2月、人気のパーソナルAIエージェント「OpenClaw」のスキルマーケットプレイス「ClawHub」にて、大規模なサプライチェーン攻撃が発覚しました。登録スキルの約12%にあたる341個が悪意あるマルウェアであり、AIエージェントの利用に伴う深刻なセキュリティリスクが浮き彫りになっています。 本件の主要なポイントは以下の通りです。 組織的な攻撃「ClawHavoc」の実態 発見された悪意あるスキルのうち、98%以上(335個)が同一のサーバーに接続されており、組織的な攻撃であることが判明しました。攻撃者は「ウォレットトラッカー」や「便利ツール」を装ったスキルを公開し、利用者に「前提条件」として外部ファイルをダウンロード・実行させることでマルウェアを感染させます。標的は暗号資産の秘密鍵、APIキー、SSH認証情報など、エンジニアにとって極めて重要な機密情報です。 致命的な脆弱性 CVE-2026-25253 OpenClaw自体に、特定のWebページを訪問するだけでPCを完全に乗っ取られる脆弱性が存在していました。WebSocketの検証不備を突くことで、認証トークンの窃取からサンドボックスの無効化までが瞬時に行われる極めて危険なものです。既に2万台以上のインスタンスがインターネットに公開状態で晒されており、甚大な被害が懸念されています。 パーソナルAIエージェントが抱える構造的な欠陥 Ciscoの分析によれば、現在のAI...
    続きを読む 一部表示
    1分未満