エピソード

  • 私立ずんだもん女学園放送部 podcast 20260130
    2026/01/29
    youtube版(スライド付き) 関連リンク Introducing Moltworker: a self-hosted personal AI agent, minus the minis Cloudflareは、セルフホスト型のパーソナルAIエージェント「Moltbot(旧Clawdbot)」を、Cloudflareのプラットフォーム上で動作させるための実装「Moltworker」を公開しました。通常、この種のAIエージェントを自前で動かすには、Mac miniのような常時稼働する物理的なハードウェアが必要になりますが、Moltworkerを利用することで、Cloudflareの強力なエッジコンピューティング環境上に自分専用のAIアシスタントを構築できるようになります。 Moltworkerの概要 Moltworkerは、AIエージェントがWebを閲覧したり、コードを実行したり、スケジュールを管理したりといった複雑なタスクを、クラウド上の隔離された環境で実行可能にするプロジェクトです。Cloudflareが提供する最新のインフラ機能をフル活用している点が特徴です。 Node.jsとの高い互換性: Cloudflare WorkersのNode.js互換性が飛躍的に向上したことで、これまで困難だった複雑なライブラリ(Playwright等)の動作が可能になりました。主要なNPMパッケージの約98.5%がそのまま動作するレベルに達しています。Sandbox SDK (Cloudflare Containers): AIが作成したコードを安全に実行するための「隔離された砂場(サンドボックス)」を提供します。これにより、メインのシステムを危険にさらすことなく、AIに動的なタスクを任せられます。Browser Rendering: AIが人間と同じようにブラウザを操作し、Webサイトから情報を取得したり、フォームに入力したりするための機能です。R2ストレージ: コンテナ環境は通常、再起動するとデータが消えてしまいますが、R2をマウントすることでセッション情報や会話履歴を永続化しています。AI Gateway: AnthropicなどのAIモデルへの接続をプロキシし、コストの可視化やモデルの切り替え、失敗時のフォールバックを容易にします。 制約と留意点 概念実証(PoC)としての公開: MoltworkerはCloudflareの正式な製品ではなく、あくまで開発者プラットフォームの可能性を示すためのサンプルプロジェクト(オープンソース)です。利用コスト: Sandboxコンテナ機能を利用するため、Cloudflare Workersの有料プラン(月額5ドル〜)への加入が必要となります。セットアップの前提: 動作にはCloudflareアカウントが必要であり、各種APIキーの設定や環境構築のステップが必要です。 新人エンジニアの皆さんにとって、このニュースは「サーバーレス技術を組み合わせることで、従来は物理サーバーが必要だった高度なAIアプリケーションがいかにスマートに実装できるか」を学ぶ絶好の事例です。GitHubのリポジトリも公開されているため、インフラとAIを組み合わせたモダンな開発手法に触れる良い機会となるでしょう。 引用元: https://blog.cloudflare.com/moltworker-self-hosted-ai-agent/ AGENTS.md outperforms skills in our agent evals - Vercel Vercelは、AIコーディングエージェントに最新のフレームワーク知識(Next.js 16の新しいAPIなど)を学習させる際、「AGENTS.md」というファイルにドキュメント情報を直接持たせる手法が、従来の「Skills」というツールベースの手法よりも圧倒的に高い精度を発揮したという調査結果を公開しました。 背景と課題 AIエージェントの学習データは古くなりがちです。例えば、Next.js 16で導入された 'use cache' や connection() といった最新APIを、学習済みのAIモデルは知りません。これを解決するために、以下の2つのアプローチを比較検証しました。 Skills: エージェントが必要に応じて呼び出す、ドキュメントやツールをパッケージ化した外部標準。AGENTS.md: プロジェクトのルートに配置し、エージェントが各ターンで必ず参照するコンテキストファイル(Claude Codeにおける CLAUDE.md と同様の仕組み)。 驚きの検証結果 検証(Evals)の結果、Skillsの成功率が最大79%(デフォルトでは53%)にとどまったのに対し、AGENTS.mdを活用した手法は100%の合格率を叩き出しました。 Skillsが苦戦した主な理由は、「エージェントがドキュメントを読みに行くべきかどうか」を正しく判断できなかったことにあります。56%のケースでエージェントはSkillを一度も呼び出さず、古い知識で回答...
    続きを読む 一部表示
    1分未満
  • 株式会社ずんだもん技術室AI放送局 podcast 20260129
    2026/01/28
    youtube版(スライド付き) 関連リンク We Got Claude to Build CUDA Kernels and teach open models! Hugging Faceが公開したこの記事では、Claude Opusのような非常に高性能なモデル(ティーチャーモデル)を活用して、より小規模で安価なオープンソースモデル(スチューデントモデル)の能力を底上げする「エージェント・スキルのアップスケーリング」という手法と、それを支援する新ツール『upskill』を紹介しています。 1. 「エージェント・スキル」とは何か? エージェント・スキルとは、LLMが特定の複雑なタスクを実行するための「指示書(Markdown形式)」や「スクリプト(コード)」をパッケージ化したものです。これにより、モデルのコンテキストを構造化し、異なるモデル間でも特定の専門能力を共有・再利用できるようになります。 2. 手法の核:ティーチャーからスチューデントへの知識移転 高度な専門知識が必要なタスク(例:CUDAカーネルの記述)において、以下のプロセスで小規模モデルを強化します。 スキルの生成: まず、Claude Opus 4.5のようなSOTA(最先端)モデルに難しいタスクを解かせ、その過程(トレース)を記録します。スキルの変換: upskillツールを使用して、そのトレースを汎用的な「スキルファイル」に変換します。評価と検証: 生成されたスキルをスチューデントモデルに適用し、性能が向上するかをベンチマークします。 3. 実践例:CUDAカーネルの構築 記事では、特に難易度の高い「NVIDIA H100 GPU向けの最適化されたCUDAカーネルの作成」を例に挙げています。 通常、H100のアーキテクチャ(Compute Capability 9.0)やメモリ共有の仕様など、最新のドキュメントを読み込むには数時間かかります。しかし、これらを「スキル」として500トークン程度に凝縮してLLMに与えることで、小規模なモデルでも適切なプロジェクト構造やPyTorchバインディングを生成できるようになります。実験では、特定のオープンソースモデルにおいて、スキルを導入することでタスクの成功率が40%から85%へと劇的に向上しました。 4. エンジニアにとっての利点 コスト最適化: 常に高価な高性能LLMを使うのではなく、一度スキルを作ってしまえば、日々の実行は安価なモデルやローカルLLMで行えるようになります。トークン効率: 闇雲に長いプロンプトを投げるのではなく、検証済みの「スキル」を読み込ませることで、トークン消費を抑えつつ精度を確保できます。ナレッジの形式知化: チーム内の特定のエンジニアしか持っていない「秘伝のタレ」のような知識を、LLMが利用可能なスキルとして保存・共有できます。 概要と制約 upskillツールは、Hugging Faceのレポジトリからpip install upskillで導入可能です。 概要: エージェントスキルの生成、テストケースの自動作成、複数モデル間での性能比較(精度・トークン消費量)を行うCLIツール。制約: 現時点ではAnthropic Claude Opus-4.5をデフォルトのティーチャーとして推奨していますが、OpenAIやローカルのOpenAI互換エンドポイントも利用可能です。また、スキルの効果はモデルによって異なり、高性能すぎるモデルにスキルを与えても逆にトークン消費が増えるだけのケースもあるため、事前の評価が重要です。 新人エンジニアの方にとっても、「高性能なAIに教官役をさせ、現場で使う軽量なAIを賢くする」というこのアプローチは、今後のAI活用における非常に実用的なパラダイムとなるでしょう。 引用元: https://huggingface.co/blog/upskill 「Google AI Plus」日本でも開始–月額1200円でGemini 3 Proや200GBドライブ付き(訂正) Googleは2026年1月28日、最新のAI機能をパッケージ化した新しいサブスクリプションサービス「Google AI Plus」を日本国内で提供開始しました。月額1,200円という、エンジニアが個人開発や学習用として手っ取り早く導入しやすい価格設定ながら、Googleの最先端技術を凝縮した内容となっています。 1. 「Gemini 3 Pro」とリサーチ機能の強化 目玉となるのは、Googleの最新大規模言語モデル(LLM)である「Gemini 3 Pro」の利用権です。さらに、高度な調査・分析を支援する「Deep Research」機能も解放されます。新人エンジニアにとって特に注目なのは、情報整理ツール「...
    続きを読む 一部表示
    1分未満
  • 株式会社ずんだもん技術室AI放送局 podcast 20260128
    2026/01/27
    youtube版(スライド付き) 関連リンク 就職活動のためにLangGraph+ローカルLLMでアプリを作ったら、意外にも使える子に仕上がったので自慢させてくれ 本記事は、フランスで研究活動を行う筆者が、厳しいヨーロッパのIT就職戦線を勝ち抜くために、自身の技術力を証明する「技術ショーケース」として開発した言語学習日記アプリの紹介と、その開発プロセスを綴った成長物語です。 開発したアプリの概要 多言語学習者のための日記アプリ「LangDiaryAgentic」を開発。主な機能は以下の通りです。 未知表現の補完: 学習中の言語で書けない部分を[ ]で囲んで母国語等で書くと、LLMが文脈に合わせて翻訳。添削と書き換え: 文法誤りの指摘だけでなく、指定した言語レベル(CEFR基準)に合わせた自然な表現へのリライト。パーソナライズ学習: 過去の誤りをDBに保存し、RAG(検索拡張生成)を用いてユーザーの弱点に基づいたアドバイスを提供。 技術的な制約と工夫 「高価なGPUを持たない個人環境(ミニPC)」という制約下で、いかに実用的なシステムを作るかに挑戦しています。 LangGraphによるエージェント分業: 単一のLLMに全てを任せるのではなく、翻訳、校閲、書き換え、アドバイスといった役割ごとにエージェントを分割。これにより、非力な小型モデルでも精度の高い「使える」出力を実現しました。ローカルLLMの選定: Ollamaを採用し、CPU環境でも動作する「Qwen2.5 3B」を選定。研究者らしく、精度と速度のベンチマークをとって最適なモデルを導き出しています。ローカルDBによるRAG: DuckDBやChromaDBを使い、全てのデータをローカルで完結させる構成にしました。 新人エンジニアへの学び 本記事から学べる重要な視点は「LLMの出力ミスを前提とした設計」です。特に小規模なローカルモデルは誤りを犯す可能性があります。筆者は「LLMの出力は間違っているかもしれない」と考え、ユーザーがUI上で簡単に修正できる設計にしました。この「修正するプロセス自体が学習になる」という逆転の発想は、実用的なAIアプリ開発における重要なヒントになります。 まとめ 厳しい雇用情勢の中でも、自分が本当に必要とするツールを最新技術(LangGraph, RAG, Local LLM)で作り込み、公開する姿勢は、エンジニアとしての確かな「武器」になります。技術を楽しみながら、制約を工夫で乗り越える開発の醍醐味が詰まった記事です。 引用元: https://qiita.com/Ultra-grand-child/items/d3f492b66a35bbaa0a94 Introducing Prism OpenAIは、科学研究のプロセスを根本から変えるための新しいAIネイティブなワークスペース「Prism」を発表しました。これは、科学者が研究論文の執筆や共同作業を行うためのクラウドベースのプラットフォームで、最大の特徴は最新の推論モデル「GPT-5.2」がワークフローに直接統合されている点です。 これまで、科学者やエンジニアが論文を執筆する際は、エディタ、LaTeXコンパイラ、リファレンス管理ツール、PDFビューア、そしてAIチャットといった複数のツールを行き来する必要があり、作業の断片化が大きな課題でした。Prismはこの断片化を解消し、執筆、数式・引用管理、共同編集、そして出版準備までのすべてを一つの場所で完結させます。 新人エンジニアや研究者にとって注目すべき主な機能は以下の通りです。 高度な文脈理解を伴うGPT-5.2の統合 GPT-5.2は、数理・科学的推論に特化したOpenAIの最新モデルです。Prism内では、文書全体の構造、数式、引用、図表の文脈を完全に理解した状態で、推論やドラフトの作成、修正案の提示を行います。LaTeXネイティブな編集環境 OpenAIが買収したクラウド型LaTeXプラットフォーム「Crixet」をベースにしており、高度な執筆環境を最初から備えています。ホワイトボードに書かれた手書きの数式や図を即座にLaTeXコードへ変換する機能など、エンジニアの作業時間を大幅に短縮する仕組みが整っています。リサーチと引用の自動化 arXivなどの文献データベースから関連する論文を検索し、執筆中の文脈に合わせて内容を取り込んだり、最新の知見に基づいて文章をリライトしたりすることが可能です。リアルタイムの共同作業 「無制限のプロジェクト数」と「...
    続きを読む 一部表示
    1分未満
  • 株式会社ずんだもん技術室AI放送局 podcast 20260127
    2026/01/26
    youtube版(スライド付き) 関連リンク AIエージェントの設計思想:Chain機構と手続き記憶 この記事では、AIエージェントをより効率的かつ柔軟に動作させるための設計思想が、人間の脳の仕組み(認知科学や神経科学)を参考にしていることが解説されています。新人エンジニアの皆さんも、この設計思想を理解することで、AIエージェント開発のヒントが得られるでしょう。 AIエージェントの動作は大きく二つのモードで考えられています。一つは「Chain機構」、もう一つは「自己修復機能」です。 1. Chain機構(「習慣」の役割) Chain機構とは、特定のタスク(例えばWebサイトへのログイン)を実行する際、一連の操作手順を「Chain(鎖)」のようにまとめて、高速かつ低コストで実行する仕組みです。 脳の仕組みとの関連: これは人間の脳の「手続き記憶(Procedural Memory)」に似ています。例えば、自転車に乗ったり、タイピングをしたりする際に、意識せずとも体が動くような「習慣」的な動作です。また、複雑な動作を一つのまとまりとして習得する「チャンキング(Chunking)」という現象にも対応します。メリット: LLM(大規模言語モデル)に毎回推論させる必要がなくなるため、処理が高速になり、API利用コストも大幅に削減できます。 しかし、Chain機構は事前に定義された手順に従うため、予期せぬ状況(WebサイトのUI変更など)には弱いという弱点があります。 2. 自己修復機能(「熟慮」の役割) Chain機構が失敗した際に、エラーを検知し、柔軟に問題を解決しようとするのが自己修復機能です。 脳の仕組みとの関連: これは人間の脳の「認知制御(Cognitive Control)」システムに似ています。エラーや予期せぬ事態が起きた時に「何かおかしい」と気づき、どうすれば良いか「熟慮」して行動を修正する働きです。特に、脳の「前帯状皮質(ACC)」がこのエラー検知の役割を担っていると考えられています。メリット: Chainだけでは対応できないようなイレギュラーな状況にも、エージェントが自ら考えて対応できるようになります。 3. 二重過程理論(「習慣」と「熟慮」の使い分け) 最も重要なのは、AIエージェントがこれらのChain機構(習慣)と自己修復機能(熟慮)をどのように使い分けるか、という点です。 脳の仕組みとの関連: 人間の脳も、普段は低コストで自動的な「モデルフリー(習慣的)」なシステムを使い、不確実な状況やエラーが発生した際には、高コストでも柔軟な「モデルベース(熟慮的)」なシステムに切り替える「二重過程理論」が提唱されています。AIエージェントでの適用: AIエージェントもこれと同じように、通常時は効率的なChainで動作し、エラー発生時などChainの信頼性が低い場合にのみ、高コストなLLMを使ったAgenticモード(熟慮)に切り替えることで、効率性と柔軟性を両立させています。これは、まるで「普段は autopilot、何かあったら人間が操縦」のようなイメージです。 今後の展望 これらの知見から、AIエージェントの設計には以下のような原則が導かれます。 階層的なエラー処理: 軽微なエラーは簡単な修正で、深刻なエラーは大規模な再プランニングで対応するなど、エラーのレベルに応じた処理を導入する。成功パターンの自動コンパイル: 自己修復によって成功した操作を新しいChainとして学習・保存することで、次に同じ問題が起きた際に効率的に対応できるようにする。メタ認知的な調整: エラー率に応じて、Chainを優先するか、探索を増やすかといった戦略を動的に調整する。 この記事は、単にAIエージェントの性能向上を目指すだけでなく、人間の知能のメカニズムを深く理解し、それをエンジニアリングに応用するという、非常に興味深いアプローチを示しています。新人エンジニアの皆さんも、ぜひこの「生物学的知能に学ぶ設計原則」を意識して、AIエージェント開発に挑戦してみてください。 引用元: https://tech-blog.localmet.com/entry/2026/01/26/122711 Claude Codeで「AI部下10人」を作ったら、勝手にバグ直して「違反は切腹」ルールを追加してきて、オレは適当にしゃべるだけになった このZennの記事は、Anthropic社の「Claude Code」を...
    続きを読む 一部表示
    1分未満
  • マジカルラブリー☆つむぎのピュアピュアA.I.放送局 podcast 20260126
    2026/01/25
    関連リンク Claude CodeやCursorを使って、AIがUIデザインを生成することができる「Pencil」が登場! Pencilは、AIエージェントによる操作を前提に設計された、新しい「エージェント駆動型MCP(Model Context Protocol)キャンバス」です。従来のFigmaのようなデザインツールの機能に加え、AIがデザインデータを直接読み取ったり、編集したりできる点が大きな特徴です。新人エンジニアの方にとっても、UIデザインとコード実装の距離を劇的に縮める画期的なツールと言えます。 ■ Pencilの主な概要と特徴 Pencilは、単なる作図ツールではなく、コードベースの中に存在するデザインフォーマットを採用しています。主な特徴は以下の通りです。 AIエージェントとの高い親和性:MCPという標準的なプロトコルを介して、Claude Code、Cursor、VS Codeといった普段使っている開発環境(IDEやCLI)からUIの生成・編集が可能です。コンテキストとしてのデザインデータ:デザインの構造をAIにコンテキストとして渡せるため、「このデザインに沿ってフロントエンドのコードを書いて」といった指示がより正確に伝わります。開発フローの統合:デザインデータやドキュメント、変更履歴をGitHubで一括管理できるため、エンジニアが得意とする「Gitベースのワークフロー」にデザインを組み込めます。 ■ 開発現場でのメリット これまでの開発では「デザイナーがFigmaで作る」→「エンジニアがそれを見て実装する」という分断がありましたが、Pencilはこの境界を曖昧にします。 プロンプトからのUI生成:例えば「コーヒーショップのダークな雰囲気のサイトを作って」と指示するだけで、デザインの骨組みが瞬時に作成されます。ドキュメント駆動の開発:仕様書(Design Docs)をAIに読み込ませてUIを生成させ、それをもとにフロントエンドの実装まで一気に繋げるシームレスな体験を提供します。双方向の編集:コードを書く延長線上でUIを調整できるため、デザインツールを別途立ち上げて試行錯誤する手間が省けます。 ■ 制約と今後の展望 現時点では、細かなレイアウト調整や視覚的なブラッシュアップといった「人間が手動で行う詳細なデザイン操作」においては、依然としてFigmaに分があります。しかし、Pencilは「AIを前提としたデザイン開発フロー」を再設計するツールであり、特にスピード感が求められるプロトタイプ制作や、AIエージェントを活用した効率的な開発において非常に強力な武器になります。 エンジニアが「デザイン」をより身近なコンテキストとして扱えるようになるPencilは、これからのフロントエンド開発のスタンダードを変える可能性を秘めています。 引用元: https://qiita.com/degudegu2510/items/eff0f63dac99554e6439 【Google Antigravity】新機能「Skills」について Googleが提供するAIエージェントツール「Google Antigravity」に、新機能Skills(スキル)が追加されました。これは、エージェントに特定のタスクの進め方やベストプラクティスを学習させるための、再利用可能なパッケージ機能です。 従来の「カスタム指示(Customizations/Rules)」は、すべての指示を1つのプロンプトに詰め込む必要がありましたが、Skillsはこれらを構造化されたフォルダとして切り出し、必要な時だけエージェントに読み込ませることができます。 1. Skillsを構成する4つの要素 Skillsは、以下の4つの要素を.agent/skills/ディレクトリに配置することで機能します。 SKILL.md(指示書): エージェントがいつ、どのように動くべきかを定義するメインのファイルです。scripts/(道具): Pythonなどのスクリプトです。計算や機械的なチェックなど、LLMが苦手とする「厳密な処理」を代行させます。resources/(素材): 社内規定やチェックリスト、設計書などの参照データです。examples/(お手本): 理想的な出力形式やコードの書き方の実例です。これにより、AIの回答トーンを「シニアエンジニア風」にするなどの制御が容易になります。 2. エンジニアがSkillsを導入すべき3つのメリット 新人エンジニアにとっても、Skillsの活用は開発体験を大きく向上させます。 AIの「集中力」と精度の向上(コンテキスト節約) すべてのルールを常に読み込ませると...
    続きを読む 一部表示
    1分未満
  • 私立ずんだもん女学園放送部 podcast 20260123
    2026/01/22
    youtube版(スライド付き) 関連リンク Mackerel MCPサーバーを活用してAIでISUCONを解いてみよう——問題発見から改善まで全部AIで! 本記事は、Webアプリケーションのパフォーマンス改善を競う「ISUCON」を題材に、MackerelのAPM(Application Performance Management)機能と、新たに提供開始された「Mackerel MCPサーバー」を活用して、AIが自律的に問題を解決できるかを検証したレポートです。 「推測するな、計測せよ」をAIで実践 パフォーマンス改善の鉄則は、当てずっぽうでコードを直すのではなく、まず「どこが遅いのか」を正確に把握することです。今回の検証では、Mackerelを通じて以下のデータを収集し、AI(Claude Code等)がMackerel MCPサーバー経由でこれらのデータにアクセスできる環境を構築しました。 インフラ情報: CPUやメモリの使用率(ホストメトリック)アプリ情報: どのエンドポイントやDBクエリが遅いか(OpenTelemetryによるトレース) 特に、コードを書き換えずに計装できる「OBI(OpenTelemetry eBPF Instrumentation)」の活用についても触れられており、既存のシステムに手を加えにくい現場でも役立つTipsが紹介されています。 AIが自律的にスコアを27倍に向上 AIに対して「スコアの最大化」を目標とし、「Mackerel MCPサーバーなどのツール活用」と「改善プロセスの記録」を指示した結果、驚くべき成果が得られました。 結果: 初期状態の1,810点から、最終的には50,280点までスコアが上昇。改善の内容: AIは「特定のAPIレスポンスが遅いこと」と「その処理中にDBロックを保持していること」を特定。外部APIリクエストをトランザクション外に移動させるという、熟練エンジニアのような的確な判断を下しました。 新人エンジニアへのメッセージ この事例の重要なポイントは、AIにただ「直して」と頼むのではなく、「判断材料となる正確なデータ(観測性)」を与えた点にあります。Mackerelのような監視ツールでシステムを可視化することは、人間がデバッグしやすくなるだけでなく、AIを強力なパートナーとして活用するための必須条件になりつつあります。 ISUCONの過去問とMackerelの無料枠を活用すれば、誰でもこの「AIによる自律改善」を体験できます。最新のAI技術と「計測」の重要性を学ぶ第一歩として、非常に示唆に富む内容となっています。 引用元: https://mackerel.io/ja/blog/entry/tech/ai-isucon Human-in-the-Loop な AI エージェントを支えるガードレール設計 Wantedly Engineer Blog ビジネスSNS「Wantedly」が提供する、スカウト業務を自動化する「AIエージェントモード」を題材に、AIの安全性を担保する「ガードレール設計」の実践的な手法を解説した記事です。新人エンジニアの方でも理解しやすいよう、AIを実務に組み込む際の「信頼性の高め方」と「エラー対策」に焦点を当てて要約します。 1. なぜ「ガードレール」が必要なのか AIエージェントがユーザーの指示に従って動作する際、その出力が不適切だったり、安全性を欠いたりしてはいけません。そこで、AIの出力をチェックする「ガードレール層」を設けます。 一般的なサービス(AWSのマネージドサービス等)や単純なNGワード設定だけでは、採用業務特有の「文脈に沿った細かいニュアンス」を判定しきれません。そのため、Wantedlyでは「ドメイン知識をプロンプトとして与えた、ガードレール専用のLLM」を用意する設計を採用しました。 2. 回答の揺らぎを抑える「Self-consistency」 LLMは確率的に動作するため、同じ質問でも回答が毎回異なる「揺らぎ」が発生します。この不安定さを解消するために採用されたのがSelf-consistency(自己整合性)という手法です。 仕組み: 1回だけの判定で決めつけず、同じ指示に対して複数回(例:5回)推論を行います。判定方法: 各回の結果をスコアリングし、その「平均値」が一定の閾値を超えた場合にのみ「不適切(Unsafe)」と判断します。 これによって、1回の偶然の誤判定に左右されない、安定したガードレールが実現できます。 3. レート制限を回避する「リトライ戦略」 Self-consistencyで複数回のAPIコールを行うと、APIプロバイダーのレート制限(回数制限)に当たりやすくなります。これを回避するために、...
    続きを読む 一部表示
    1分未満
  • 株式会社ずんだもん技術室AI放送局 podcast 20260122
    2026/01/21
    youtube版(スライド付き) 関連リンク Agent SkillsがVercelに乗っ取られそうになっている件について AIエージェントの機能を拡張するためのオープン規格「Agent Skills」が、Vercelの強力なエコシステムによって急速に塗り替えられようとしています。本記事は、Anthropicが提唱したこの規格を、Vercelがどのように自社エコシステムへ取り込もうとしているか、その動向と懸念点を解説しています。 1. Agent Skillsとは何か? AIエージェントが利用できる「再利用可能な機能(スキル)」の共通規格です。一度インストールすれば、エージェントに特定の知識や実行能力を付与できます。Claude Code、Cursor、GitHub Copilotなど、主要なAIツールで急速に採用が広がっています。 2. Vercelの波状攻撃:ツールとマーケットプレイスの提供 Vercelは、スキルのインストールを劇的に簡略化するnpx add-skillや、管理用のnpx skillsというツールを次々と公開しました。さらに、2026年1月21日にはスキルのマーケットプレイス「Skills.sh」を発表しました。 これまでのマーケットプレイスはGitHubのスター数による評価でしたが、Skills.shは実際のインストール数に基づいたランキングを提供しており、実用性の高いスキルが見つけやすくなっています。 3. 背景にある「ディレクトリ分散問題」の解決 現在、Agent Skillsは「AIツールごとにスキルの保存場所がバラバラで管理しにくい」という課題を抱えています。本来は開発者コミュニティで合意形成が必要な部分ですが、Vercelは独自のツール群でこの問題を強引に解決し、デファクトスタンダード(事実上の標準)の座を奪おうとしています。 4. 今後の展望と懸念:セキュリティと仕様の独占 現在はGitHub上のスクリプトを直接インストールする形式のため、悪意のあるコードが含まれるセキュリティリスクがあります。今後、Vercelはnpmのような「専用レジストリ(パッケージ配布所)」を構築する可能性がありますが、これには以下の懸念が伴います。 仕様の主導権の移転: 本来の策定者であるAnthropicではなく、配布プラットフォームを持つVercelが独自に仕様を改定できてしまう。特定環境への依存: Next.jsやNode.jsといった、Vercelが得意とする技術スタックへの依存が強まる恐れがある。 まとめ 新人エンジニアの皆さんは、Next.jsなどで馴染み深いVercelが、AIエージェントの分野でも「使いやすさ」を武器に急拡大している点に注目してください。非常に便利になる一方で、特定の企業が規格を独占するリスクも含んでおり、今後のエージェント開発において無視できない大きな動きとなっています。 引用元: https://zenn.dev/tkithrta/articles/b7afbf76e7bb31 The Agentic AI Handbook: Production-Ready Patterns 2025年末から2026年年始にかけて、AIエージェント界隈では「静かな革命」が起きました。Linus Torvalds氏やShopify CEOのTobias Lütke氏といった著名な技術者たちが、AIエージェントを実務に深く取り入れ始めたのです。本記事は、GitHubで大きな反響を呼んだ「Awesome Agentic Patterns」をベースに、AIエージェントをデモレベルから「本番環境(プロダクション)」で通用するレベルに引き上げるための113の設計パターンを解説したガイドです。 なぜ「パターン」が必要なのか 多くのエンジニアが「デモでは動くが、本番では失敗する」という壁に直面します。これは、エッジケース、コンテキスト制限、セキュリティ、そして「人間との協調」といった現実世界の複雑さが原因です。本ハンドブックでは、これらの課題を解決するために、実務で検証済みのパターンを以下の8つのカテゴリーに分類しています。 オーケストレーションと制御: エージェントの「脳」となる、計画や実行順序の制御。ツール利用と環境: APIやDBなどの「手」となる外部インターフェースの設計。コンテキストとメモリ: 限られた記憶容量の中で知識を管理する「精神」。フィードバックループ: 自己修正や評価を通じて出力を改善する「成長」。UXとコラボレーション: 人間とエージェントが連携するための「パートナーシップ」。信頼性と評価: テストや評価、観測可能性を担保する「品質保証」。学習と適応: 経験からスキルを蓄積する「進化」。...
    続きを読む 一部表示
    1分未満
  • 株式会社ずんだもん技術室AI放送局 podcast 20260121
    2026/01/20
    youtube版(スライド付き) 関連リンク Cisco and OpenAI redefine enterprise engineering with AI agents CiscoとOpenAIが提携し、AIエージェント「Codex」をエンタープライズ規模のソフトウェア開発に本格導入したという、非常にエキサイティングなニュースです。これまでの「コード補完ツール」としてのAIから一歩進み、「自律的にタスクを遂行するチームの一員」としてAIを活用するフェーズに入ったことを示しています。 新人エンジニアの皆さんが注目すべきポイントは、以下の3点に集約されます。 1. 「補助」ではなく「自律(エージェント)」への進化 従来のAIは、エンジニアが書いているコードの続きを提案する「補完」が主流でした。しかし、今回Ciscoが導入したCodexは「エージェンシー(自律性)」を備えています。 複数のリポジトリを跨いでコードの依存関係を理解する。CLI(コマンドライン)を操作し、「コンパイル→テスト→エラー修正」というループを自律的に回す。既存のセキュリティやガバナンスのルールに従って行動する。 このように、エンジニアが日常的に行う「一連のワークフロー」を肩代わりできるのが大きな特徴です。 2. 驚異的な実務成果 Ciscoの複雑な大規模システム(特にC/C++主体のコードベース)において、具体的な成果が出ています。 ビルドの最適化: 15以上のリポジトリを分析し、ビルド時間を約20%削減。月間1,500時間もの工数を削減しました。バグ修正の自動化: 「CodeWatch」という仕組みにより、数週間かかっていた修正作業を数時間に短縮。バグ修正の処理能力は10〜15倍に向上しました。大規模移行: UIフレームワーク(React)のバージョン移行など、単調で膨大な作業をAIが代行し、数週間かかるはずの工程を数日で完了させました。 3. AIとの新しい働き方 現場のエンジニアは、「AIをツールではなくチームメイトとして扱うことで最大の利益が得られた」と語っています。AIに「計画書」を作成させ、人間がその計画と成果物をレビューするというスタイルです。 これからのエンジニアには、自分でコードを書く力に加え、「AIエージェントに的確な指示を出し、そのプロセスを監督・検証する能力」がますます求められるようになります。AIにルーチンワークを任せ、人間はよりクリエイティブな設計や、重要な判断を伴う業務に集中できる、ポジティブな未来が描かれています。 引用元: https://openai.com/index/cisco [翻訳] Anthropic ハッカソン優勝者による Claude Code 完全ガイド 本記事は、Anthropicが開発したCLIベースのAIエージェント「Claude Code」を10ヶ月間使い込み、ハッカソンでの優勝経験も持つエンジニアによる実践的なカスタマイズガイドです。新人エンジニアの方でも、これを読むことでClaude Codeを単なるチャットツールではなく、強力な「開発パートナー」へと進化させる方法が理解できます。 主な要点は以下の通りです。 効率化を支える「Skill」と「Slash Command」 特定の指示や定型ワークフロー(リファクタリング、テスト駆動開発など)をプロンプトの短縮形として登録できます。例えば、コードの整理を /refactor-clean というコマンド一つで実行できるようになり、何度も同じ指示を書く手間を省けます。 自動化を仕組み化する「Hooks」 「ファイル編集後」や「特定のコマンド実行前」といったイベントをトリガーに動作を自動化できます。例えば、編集後に自動でフォーマッタ(Prettier)を動かしたり、型チェック(tsc)を走らせたりすることで、ケアレスミスを防ぎながら開発の質を保てます。 精度を向上させる「Sub Agent」 全ての作業を一つのAIで行うのではなく、設計担当、レビュー担当、テスト担当といった「役割を絞った子エージェント」にタスクを委譲します。範囲を限定することで、AIの思考がより鋭くなり、より正確なアウトプットが得られます。 外部ツールと繋がる「MCP」と「Plugin」 GitHubやデータベース、ブラウザ操作などの外部サービスと連携するための仕組みです。また、LSP(Language Server Protocol)のプラグインを導入することで、AIがコードの文脈を深く理解し、型チェックや補完を強力にサポートしてくれます。 最重要ポイント:...
    続きを読む 一部表示
    1分未満