エピソード

  • 私立ずんだもん女学園放送部 podcast 20260123
    2026/01/22
    youtube版(スライド付き) 関連リンク Mackerel MCPサーバーを活用してAIでISUCONを解いてみよう——問題発見から改善まで全部AIで! 本記事は、Webアプリケーションのパフォーマンス改善を競う「ISUCON」を題材に、MackerelのAPM(Application Performance Management)機能と、新たに提供開始された「Mackerel MCPサーバー」を活用して、AIが自律的に問題を解決できるかを検証したレポートです。 「推測するな、計測せよ」をAIで実践 パフォーマンス改善の鉄則は、当てずっぽうでコードを直すのではなく、まず「どこが遅いのか」を正確に把握することです。今回の検証では、Mackerelを通じて以下のデータを収集し、AI(Claude Code等)がMackerel MCPサーバー経由でこれらのデータにアクセスできる環境を構築しました。 インフラ情報: CPUやメモリの使用率(ホストメトリック)アプリ情報: どのエンドポイントやDBクエリが遅いか(OpenTelemetryによるトレース) 特に、コードを書き換えずに計装できる「OBI(OpenTelemetry eBPF Instrumentation)」の活用についても触れられており、既存のシステムに手を加えにくい現場でも役立つTipsが紹介されています。 AIが自律的にスコアを27倍に向上 AIに対して「スコアの最大化」を目標とし、「Mackerel MCPサーバーなどのツール活用」と「改善プロセスの記録」を指示した結果、驚くべき成果が得られました。 結果: 初期状態の1,810点から、最終的には50,280点までスコアが上昇。改善の内容: AIは「特定のAPIレスポンスが遅いこと」と「その処理中にDBロックを保持していること」を特定。外部APIリクエストをトランザクション外に移動させるという、熟練エンジニアのような的確な判断を下しました。 新人エンジニアへのメッセージ この事例の重要なポイントは、AIにただ「直して」と頼むのではなく、「判断材料となる正確なデータ(観測性)」を与えた点にあります。Mackerelのような監視ツールでシステムを可視化することは、人間がデバッグしやすくなるだけでなく、AIを強力なパートナーとして活用するための必須条件になりつつあります。 ISUCONの過去問とMackerelの無料枠を活用すれば、誰でもこの「AIによる自律改善」を体験できます。最新のAI技術と「計測」の重要性を学ぶ第一歩として、非常に示唆に富む内容となっています。 引用元: https://mackerel.io/ja/blog/entry/tech/ai-isucon Human-in-the-Loop な AI エージェントを支えるガードレール設計 Wantedly Engineer Blog ビジネスSNS「Wantedly」が提供する、スカウト業務を自動化する「AIエージェントモード」を題材に、AIの安全性を担保する「ガードレール設計」の実践的な手法を解説した記事です。新人エンジニアの方でも理解しやすいよう、AIを実務に組み込む際の「信頼性の高め方」と「エラー対策」に焦点を当てて要約します。 1. なぜ「ガードレール」が必要なのか AIエージェントがユーザーの指示に従って動作する際、その出力が不適切だったり、安全性を欠いたりしてはいけません。そこで、AIの出力をチェックする「ガードレール層」を設けます。 一般的なサービス(AWSのマネージドサービス等)や単純なNGワード設定だけでは、採用業務特有の「文脈に沿った細かいニュアンス」を判定しきれません。そのため、Wantedlyでは「ドメイン知識をプロンプトとして与えた、ガードレール専用のLLM」を用意する設計を採用しました。 2. 回答の揺らぎを抑える「Self-consistency」 LLMは確率的に動作するため、同じ質問でも回答が毎回異なる「揺らぎ」が発生します。この不安定さを解消するために採用されたのがSelf-consistency(自己整合性)という手法です。 仕組み: 1回だけの判定で決めつけず、同じ指示に対して複数回(例:5回)推論を行います。判定方法: 各回の結果をスコアリングし、その「平均値」が一定の閾値を超えた場合にのみ「不適切(Unsafe)」と判断します。 これによって、1回の偶然の誤判定に左右されない、安定したガードレールが実現できます。 3. レート制限を回避する「リトライ戦略」 Self-consistencyで複数回のAPIコールを行うと、APIプロバイダーのレート制限(回数制限)に当たりやすくなります。これを回避するために、...
    続きを読む 一部表示
    1分未満
  • 株式会社ずんだもん技術室AI放送局 podcast 20260122
    2026/01/21
    youtube版(スライド付き) 関連リンク Agent SkillsがVercelに乗っ取られそうになっている件について AIエージェントの機能を拡張するためのオープン規格「Agent Skills」が、Vercelの強力なエコシステムによって急速に塗り替えられようとしています。本記事は、Anthropicが提唱したこの規格を、Vercelがどのように自社エコシステムへ取り込もうとしているか、その動向と懸念点を解説しています。 1. Agent Skillsとは何か? AIエージェントが利用できる「再利用可能な機能(スキル)」の共通規格です。一度インストールすれば、エージェントに特定の知識や実行能力を付与できます。Claude Code、Cursor、GitHub Copilotなど、主要なAIツールで急速に採用が広がっています。 2. Vercelの波状攻撃:ツールとマーケットプレイスの提供 Vercelは、スキルのインストールを劇的に簡略化するnpx add-skillや、管理用のnpx skillsというツールを次々と公開しました。さらに、2026年1月21日にはスキルのマーケットプレイス「Skills.sh」を発表しました。 これまでのマーケットプレイスはGitHubのスター数による評価でしたが、Skills.shは実際のインストール数に基づいたランキングを提供しており、実用性の高いスキルが見つけやすくなっています。 3. 背景にある「ディレクトリ分散問題」の解決 現在、Agent Skillsは「AIツールごとにスキルの保存場所がバラバラで管理しにくい」という課題を抱えています。本来は開発者コミュニティで合意形成が必要な部分ですが、Vercelは独自のツール群でこの問題を強引に解決し、デファクトスタンダード(事実上の標準)の座を奪おうとしています。 4. 今後の展望と懸念:セキュリティと仕様の独占 現在はGitHub上のスクリプトを直接インストールする形式のため、悪意のあるコードが含まれるセキュリティリスクがあります。今後、Vercelはnpmのような「専用レジストリ(パッケージ配布所)」を構築する可能性がありますが、これには以下の懸念が伴います。 仕様の主導権の移転: 本来の策定者であるAnthropicではなく、配布プラットフォームを持つVercelが独自に仕様を改定できてしまう。特定環境への依存: Next.jsやNode.jsといった、Vercelが得意とする技術スタックへの依存が強まる恐れがある。 まとめ 新人エンジニアの皆さんは、Next.jsなどで馴染み深いVercelが、AIエージェントの分野でも「使いやすさ」を武器に急拡大している点に注目してください。非常に便利になる一方で、特定の企業が規格を独占するリスクも含んでおり、今後のエージェント開発において無視できない大きな動きとなっています。 引用元: https://zenn.dev/tkithrta/articles/b7afbf76e7bb31 The Agentic AI Handbook: Production-Ready Patterns 2025年末から2026年年始にかけて、AIエージェント界隈では「静かな革命」が起きました。Linus Torvalds氏やShopify CEOのTobias Lütke氏といった著名な技術者たちが、AIエージェントを実務に深く取り入れ始めたのです。本記事は、GitHubで大きな反響を呼んだ「Awesome Agentic Patterns」をベースに、AIエージェントをデモレベルから「本番環境(プロダクション)」で通用するレベルに引き上げるための113の設計パターンを解説したガイドです。 なぜ「パターン」が必要なのか 多くのエンジニアが「デモでは動くが、本番では失敗する」という壁に直面します。これは、エッジケース、コンテキスト制限、セキュリティ、そして「人間との協調」といった現実世界の複雑さが原因です。本ハンドブックでは、これらの課題を解決するために、実務で検証済みのパターンを以下の8つのカテゴリーに分類しています。 オーケストレーションと制御: エージェントの「脳」となる、計画や実行順序の制御。ツール利用と環境: APIやDBなどの「手」となる外部インターフェースの設計。コンテキストとメモリ: 限られた記憶容量の中で知識を管理する「精神」。フィードバックループ: 自己修正や評価を通じて出力を改善する「成長」。UXとコラボレーション: 人間とエージェントが連携するための「パートナーシップ」。信頼性と評価: テストや評価、観測可能性を担保する「品質保証」。学習と適応: 経験からスキルを蓄積する「進化」。...
    続きを読む 一部表示
    1分未満
  • 株式会社ずんだもん技術室AI放送局 podcast 20260121
    2026/01/20
    youtube版(スライド付き) 関連リンク Cisco and OpenAI redefine enterprise engineering with AI agents CiscoとOpenAIが提携し、AIエージェント「Codex」をエンタープライズ規模のソフトウェア開発に本格導入したという、非常にエキサイティングなニュースです。これまでの「コード補完ツール」としてのAIから一歩進み、「自律的にタスクを遂行するチームの一員」としてAIを活用するフェーズに入ったことを示しています。 新人エンジニアの皆さんが注目すべきポイントは、以下の3点に集約されます。 1. 「補助」ではなく「自律(エージェント)」への進化 従来のAIは、エンジニアが書いているコードの続きを提案する「補完」が主流でした。しかし、今回Ciscoが導入したCodexは「エージェンシー(自律性)」を備えています。 複数のリポジトリを跨いでコードの依存関係を理解する。CLI(コマンドライン)を操作し、「コンパイル→テスト→エラー修正」というループを自律的に回す。既存のセキュリティやガバナンスのルールに従って行動する。 このように、エンジニアが日常的に行う「一連のワークフロー」を肩代わりできるのが大きな特徴です。 2. 驚異的な実務成果 Ciscoの複雑な大規模システム(特にC/C++主体のコードベース)において、具体的な成果が出ています。 ビルドの最適化: 15以上のリポジトリを分析し、ビルド時間を約20%削減。月間1,500時間もの工数を削減しました。バグ修正の自動化: 「CodeWatch」という仕組みにより、数週間かかっていた修正作業を数時間に短縮。バグ修正の処理能力は10〜15倍に向上しました。大規模移行: UIフレームワーク(React)のバージョン移行など、単調で膨大な作業をAIが代行し、数週間かかるはずの工程を数日で完了させました。 3. AIとの新しい働き方 現場のエンジニアは、「AIをツールではなくチームメイトとして扱うことで最大の利益が得られた」と語っています。AIに「計画書」を作成させ、人間がその計画と成果物をレビューするというスタイルです。 これからのエンジニアには、自分でコードを書く力に加え、「AIエージェントに的確な指示を出し、そのプロセスを監督・検証する能力」がますます求められるようになります。AIにルーチンワークを任せ、人間はよりクリエイティブな設計や、重要な判断を伴う業務に集中できる、ポジティブな未来が描かれています。 引用元: https://openai.com/index/cisco [翻訳] Anthropic ハッカソン優勝者による Claude Code 完全ガイド 本記事は、Anthropicが開発したCLIベースのAIエージェント「Claude Code」を10ヶ月間使い込み、ハッカソンでの優勝経験も持つエンジニアによる実践的なカスタマイズガイドです。新人エンジニアの方でも、これを読むことでClaude Codeを単なるチャットツールではなく、強力な「開発パートナー」へと進化させる方法が理解できます。 主な要点は以下の通りです。 効率化を支える「Skill」と「Slash Command」 特定の指示や定型ワークフロー(リファクタリング、テスト駆動開発など)をプロンプトの短縮形として登録できます。例えば、コードの整理を /refactor-clean というコマンド一つで実行できるようになり、何度も同じ指示を書く手間を省けます。 自動化を仕組み化する「Hooks」 「ファイル編集後」や「特定のコマンド実行前」といったイベントをトリガーに動作を自動化できます。例えば、編集後に自動でフォーマッタ(Prettier)を動かしたり、型チェック(tsc)を走らせたりすることで、ケアレスミスを防ぎながら開発の質を保てます。 精度を向上させる「Sub Agent」 全ての作業を一つのAIで行うのではなく、設計担当、レビュー担当、テスト担当といった「役割を絞った子エージェント」にタスクを委譲します。範囲を限定することで、AIの思考がより鋭くなり、より正確なアウトプットが得られます。 外部ツールと繋がる「MCP」と「Plugin」 GitHubやデータベース、ブラウザ操作などの外部サービスと連携するための仕組みです。また、LSP(Language Server Protocol)のプラグインを導入することで、AIがコードの文脈を深く理解し、型チェックや補完を強力にサポートしてくれます。 最重要ポイント:...
    続きを読む 一部表示
    1分未満
  • 株式会社ずんだもん技術室AI放送局 podcast 20260120
    2026/01/19
    youtube版(スライド付き) 関連リンク LINE iOSアプリ開発を高速化するClaude Code基盤の設計思想 LINEは、大規模なiOSアプリ開発においてAIコーディングエージェント「Claude Code」を最大限に活用するための設計思想を公開しました。大規模プロジェクトでは、AIが膨大なファイルやビルド時間に圧倒され、効率が低下するという課題があります。これを解決し、AIに人間と同等のスムーズな開発サイクル(イテレーション)を実行させるための4つのポイントが示されています。 コンテキスト(情報量)の最適化 AIが一度に理解できる情報には限りがあります。全てのルールを初期設定ファイル(CLAUDE.md)に詰め込むと、すぐに限界が来てしまいます。そこで、特定のファイルパスを操作する時だけルールを読み込む仕組みや、必要な時だけ呼び出す「Skills」機能を活用し、AIに与える情報を最小限かつ適切に絞り込む工夫をしています。 開発イテレーションの自動化と「Subagent」の活用 大規模アプリでは全体のビルドに非常に時間がかかります。AIが不用意にフルビルドを開始してしまわないよう、メモリファイルで「モジュール単位のビルド」を優先するよう指示しています。また、ビルドやテストといった特定のタスクを「Subagent」として切り出すことで、大量のビルドログでメインの会話が埋もれてしまう(コンテキストを汚染する)のを防いでいます。 従来手法(CLI/スクリプト)との組み合わせ AIは柔軟ですが、複雑な設定ファイル(Xcodeのプロジェクト設定など)の書き換えで不正確な出力をすることがあります。そこで、厳密な操作が必要な部分はあらかじめ用意したCLIツールやスクリプトをAIに実行させる「Skill」として定義しています。AIの「推論力」とプログラムの「正確性」を組み合わせたガードレール設計が重要です。 継続的な改善と個人への最適化 AIへの指示(プロンプト)に完成形はありません。開発者が個人の好みに合わせて設定を拡張できる仕組みや、チーム全体でインストラクション(指示書)を改善し続ける文化を構築しています。 新人エンジニアへのメッセージ: AIエージェントを使いこなすコツは、単に魔法のように使おうとするのではなく、AIが「今、何を知るべきか」「どのツールを使うべきか」を整理してあげる環境設計にあります。AIと協力して高速に「実装→ビルド→テスト」を回すこの手法は、これからの大規模開発におけるスタンダードな姿と言えるでしょう。 引用元: https://techblog.lycorp.co.jp/ja/20260119a RTX5090 2台構成の機械学習用PCを自作する - A Day in the Life 本記事は、パラメータサイズ100M以下のTransformerモデル学習や、複数GPU環境の知見を得るために、最新のハイエンドGPU「GeForce RTX 5090」を2枚搭載した機械学習用PCを自作した記録です。2025年末から2026年初頭にかけてのパーツ選定や、ハイエンド構成特有の注意点が詳細に解説されています。 最大の課題は「電力」と「排熱」です。RTX 5090は1枚で最大575Wを消費するため、2枚構成では1600W以上の電源が必須となります。しかし、日本の一般的な100Vコンセント(最大1500W)では電力が不足するため、著者は壁コンセントを200V/20Aへ変更する電気工事を行い、1650WのATX 3.1対応電源を採用しました。 GPUの物理的な設置も工夫が必要です。近年のGPUは厚みが増しており、空冷モデルを2枚並べて挿すのは困難です。今回は「空冷モデル」と「簡易水冷モデル」を1枚ずつ組み合わせることで、物理的な干渉を回避しつつ冷却性能を確保しています。マザーボードには、PCIe 5.0 x8/x8動作が可能な「ASUS ProArt X870E-CREATOR」を選定し、巨大なPCケース内で最適なエアフローを構築しています。 その他の構成では、CPUにRyzen 9 9950X(16コア)を採用し、メモリはAI需要による価格高騰の影響を考慮して64GBを搭載。ストレージは、学習時のランダムアクセスを支える8TBの高速NVMe SSDをメインとし、データ読み込みの工夫としてHDDを併用するテクニックも紹介されています。 運用面では、GPUを2枚使うことで学習や推論(vLLM等)の速度が1.8〜2倍向上するという大きなメリットが得られました。一方で、コンシューマ向けGPUは...
    続きを読む 一部表示
    1分未満
  • マジカルラブリー☆つむぎのピュアピュアA.I.放送局 podcast 20260119
    2026/01/18
    関連リンク Good To Go 「Good To Go (gtg)」は、AIコーディングエージェントが「作成したプルリクエスト(PR)が本当にマージ可能な状態か」を確実(決定論的)に判断するためのツールです。AIによる開発自動化が進む中で、エンジニアが直面する「完了定義の自動判定」という課題を解決します。 ■ 解決したい課題 AIエージェント(Claude CodeやCursor、自動PR作成ツールなど)はコードを書くことには長けていますが、「いつ作業を終えて良いか」を正確に判断するのが苦手です。その結果、以下のような非効率な状況が発生しがちです。 ・CI(継続的インテグレーション)が終わるのを待たずに作業を完了させてしまう。 ・逆に、CIの結果を何度も何度もポーリング(確認)し続け、APIトークンや時間を浪費する。 ・人間やAIレビュアーからのコメントのうち、修正が必要な「重要な指摘」と、単なる「褒め言葉」や「提案(Nits)」を区別できず、必要な対応を漏らしてしまう。 ・「マージしていいですか?」と何度も人間に確認を求めてしまう。 ■ 概要と特徴 Good To Goは、PRの状態を以下の3つの次元で分析し、AIが次に取るべき行動を明確なステータス(READY, ACTION_REQUIRED, CI_FAILINGなど)で回答します。 CIステータスの集約 GitHub上の複数のチェック項目やコミットステータスを統合し、必須チェックが通っているか、まだ進行中か、あるいは失敗しているかを一つの判定としてまとめます。 インテリジェントなコメント分類 CodeRabbit、Greptile、Claude Codeなどの主要なAIレビューツールの出力を解析する機能を備えています。コメントを「アクションが必要(修正必須)」「アクション不要(賛辞や些細な指摘)」「曖昧(人間の判断が必要)」に自動分類します。 スレッド解決の追跡 GitHub上の議論(スレッド)が本当に解決されたのか、あるいは解決済みとしてマークされているが後のコミットで修正が反映されているかなどを追跡します。 ■ 開発者・AIエージェントへの配慮 本ツールは「AIエージェントがツールとして使うこと」を最優先に設計されています。出力はAIがパースしやすい構造化されたJSON形式に対応しており、以前のセッションでの判断状態を保持する機能も備えています。 これにより、新人エンジニアがAIエージェントを活用した自動化パイプラインを構築する際、複雑な判定ロジックを自前で実装することなく、「PRが準備完了かどうか」を1つのコマンドで確実に取得できるようになります。 引用元: https://dsifry.github.io/goodtogo/ GPT-5.2 vs Claude Opus 4.5、なぜ「伝わる」感覚が違うのか【設計思想から比較】 本記事は、2026年時点での主要LLMである「GPT-5.2」と「Claude Opus 4.5」を、設計思想と実務パフォーマンスの観点から比較した技術考察です。特に「なぜモデルによって説明の分かりやすさが異なるのか」という疑問に対し、エンジニアが納得できる明確な答えを提示しています。 1. 設計思想の根本的な違い 両者の最大の違いは、回答を生成する際の「優先順位」にあります。 GPT-5.2 (Technical Precision): 「技術的な正確性」を最優先します。変数名や内部処理の専門用語を羅列する傾向があり、ロボット的で冗長な印象を与えがちですが、コードベースに精通したシニア層には正確な情報源となります。Claude Opus 4.5 (Audience Awareness): 「聞き手への配慮」を最優先します。自然で人間味のあるトーンを用い、変数名よりも「UI上で何が起きるか」といった具体的で平易な言葉で説明します。 2. ジュニア・不慣れな環境での優位性 この「聴衆を意識した」設計により、Claudeは特に新人エンジニアや、シニアであっても不慣れなコードベースを読み解く場面で圧倒的に「伝わりやすい」回答を返します。これはプロンプトの指示で補正できる表面的なスタイルではなく、学習段階で組み込まれたモデルの「骨格」に起因する違いです。 3. 実務性能とトレードオフ 両者には速度と正確性の面で顕著なトレードオフが存在します。 生成速度と修正精度: ClaudeはGPTの約6倍という高速な生成能力を持ち、レガシーコードのリファクタリングでは破壊的変更が極めて少ない(87%低減)という評価...
    続きを読む 一部表示
    1分未満
  • 私立ずんだもん女学園放送部 podcast 20260116
    2026/01/15
    youtube版(スライド付き) 関連リンク Google Antigravity、エージェント拡張機能「Skills」の搭載を発表 Googleは、2026年1月14日に開発者向けプラットフォーム「Antigravity」において、AIエージェントの能力を拡張・定義するための新しいオープン標準パッケージ「Skills」を発表しました。 現在、AIを活用した「エージェント(自律的にタスクを遂行するプログラム)」の開発が世界中で加速していますが、エージェントに複雑な手順を正確に実行させるための「知識の共通化」が課題となっていました。今回発表された「Skills」は、特定のタスクを実行するための手順書、ベストプラクティス、さらには実行に必要なスクリプトやテンプレートを一つにまとめた「再利用可能な知識パッケージ」です。 新人エンジニアの方々にも馴染みやすいよう、この仕組みを端的に表現すると「AIエージェント専用の業務マニュアル兼道具箱」と言えます。 1. 「Skills」の主な概要 「Skills」を導入することで、AIエージェントは特定の作業を行う際、このパッケージに含まれる指示を動的に参照できるようになります。これにより、プロンプトだけで全てを説明するのではなく、構造化された知識を基に、より確実で高度なタスク遂行が可能になります。 2. 技術的な構成と制約 エンジニアにとって特筆すべきは、そのシンプルで宣言的な管理手法です。 ファイル構成: 各Skillは、SKILL.md というMarkdownファイルによって定義されます。記述形式: ファイルの冒頭(YAMLフロントマター)に、Skillの名称、説明、タスクの詳細なステップを記述します。リソースの同梱: 手順だけでなく、実際に動作させるスクリプトや、参考となるコードの実装例、出力テンプレートなどもパッケージに含めることができます。運用のしやすさ: 指定のフォルダにファイルを配置するだけで作成可能であり、複雑な条件分岐(意思決定のプロセス)も記述できる柔軟性を備えています。 3. 効果的な活用のための推奨事項 Googleは、質の高い「Skill」を作成するための指針として以下のポイントを挙げています。 焦点の明確化: 一つのSkillに多くの役割を持たせず、特定の作業に特化させること。具体的な記述: エージェントが迷わないよう、説明文や手順を極めて具体的に記載すること。 まとめ:エンジニアにとっての意義 このアップデートは、AIエージェント開発において「何をさせるか」というロジックを、コードやプロンプトから切り離して「知識資産(Skills)」として管理・共有できるようになったことを意味します。 新人エンジニアの皆さんにとっては、先輩エンジニアが作成した「優れた手順(Skills)」をエージェントに読み込ませるだけで、高度な開発支援を受けられるようになるなど、開発体験を劇的に向上させる可能性を秘めています。AIエージェント時代の新しい標準技術として、今後の動向が非常に注目されるニュースです。 引用元: https://codezine.jp/news/detail/22977 Introducing: React Best Practices - Vercel Vercelは、ReactとNext.jsにおける10年以上の最適化ノウハウを凝縮したリポジトリ「react-best-practices」を公開しました。このプロジェクトの最大の特徴は、人間だけでなくAIエージェントやLLM(大規模言語モデル)が理解し、開発現場で即座に活用できるように最適化されている点です。 ■ 概要と開発の背景 フロントエンドのパフォーマンス改善は、リリース後に問題が発覚してから対応する「後追い」になりがちです。Vercelは、多くのプロジェクトで共通して見られる「非同期処理のウォーターフォール(数珠つなぎの待ち時間)」「肥大化するバンドルサイズ」「不要な再レンダリング」といった課題を根本から解決するため、このベストプラクティスを策定しました。 ■ 本フレームワークの核心:優先順位の考え方 優れたパフォーマンス改善のコツは、影響の大きい部分から着手することです。本ガイドでは、以下の順序で対策を講じることを推奨しています。 ウォーターフォールの排除: ネットワークの待ち時間を最小化する。バンドルサイズの削減: ユーザーがダウンロードするJS量を減らす。 その上で、サーバーサイドの性能...
    続きを読む 一部表示
    1分未満
  • 株式会社ずんだもん技術室AI放送局 podcast 20260115
    2026/01/14
    youtube版(スライド付き) 関連リンク Now GA: LangSmith Agent Builder LangChain社が提供するAI開発プラットフォーム「LangSmith」において、ノーコードでAIエージェントを構築できる「Agent Builder」が一般公開(GA)されました。これは、プログラミングを介さずに複雑な日常業務を自動化するAIエージェントを、誰でも簡単に作成・運用できるツールです。 1. AIエージェントを「有能なスタッフ」に 新人エンジニアの方に馴染みのある「従来の自動化」は、IF-THEN形式の固定されたワークフロー(もしAならBをする)が主流でした。しかし、Agent Builderで作るエージェントは「やりたいこと(ゴール)」を自然言語で伝えるだけで、AIが自ら手順を考え、必要なツールを使い分け、時にはサブエージェント(別の補助AI)に仕事を振り分けながらタスクを完遂します。まさに「指示を理解して自律的に動くスタッフ」のような存在です。 2. プログラミング不要で現場の課題を解決 Agent Builderは、以下のような「細かくて面倒な、アプリをまたぐ作業」を得意としています。 リサーチの自動化: 競合他社の動向を調べ、Slackに毎日要約を投稿する。プロジェクト管理: ドキュメント(Notion等)の内容を読み取り、タスク管理ツール(Linear等)にチケットを作成する。会議準備: CRMの顧客情報や最新ニュースをまとめ、会議前にブリーフィング資料を作成する。 3. エンジニアを支える高度な拡張性 ノーコードでありながら、エンジニアが納得する強力なカスタマイズ機能も備わっています。 MCP(Model Context Protocol)のサポート: 自作のツールや外部APIをエージェントに接続し、機能を無限に拡張できます。モデルの選択(BYOM): 精度やコストに合わせて、背後で動くLLM(モデル)を自由に選択可能です。APIとしての利用: 作成したエージェントをAPIとして呼び出し、他のプログラムや大規模なシステムの一部として組み込むことができます。 4. チームでの共有と改善 作成したエージェントはチーム内で共有し、クローンして各自で調整することも可能です。また、エージェントは過去の対話やフィードバックを記憶し、使えば使うほど賢くなっていく特性を持っています。 Agent BuilderはLangSmithのすべてのプランで利用可能で、無料で試すことができます。「定型業務をAIに任せ、エンジニアがより創造的な開発に集中できる環境」を作るための、大きな一歩となるツールです。まずは身近な業務の自動化から試してみてはいかがでしょうか。 引用元: https://www.blog.langchain.com/langsmith-agent-builder-generally-available/ Next generation medical image interpretation with MedGemma 1.5 and medical speech to text with MedASR タイトル: Next generation medical image interpretation with MedGemma 1.5 and medical speech to text with MedASR 記事の選定理由 keyword:LLM / 医療特化型モデルMedGemma 1.5のリリース。特定ドメインにおけるLLMの進化を示すBreaking Newsです。 要約 Googleは、医療領域に特化したオープンな生成AIモデルシリーズの最新版「MedGemma 1.5 4B」と、医療用音声文字起こしモデル「MedASR」を公開しました。これらは、医療従事者の業務を支援し、医療AI開発の土台(Foundation)となることを目的としています。 1. MedGemma 1.5 4B:多次元画像への対応と精度の向上 前バージョンのMedGemma 1は2次元画像(X線や皮膚科画像など)が中心でしたが、1.5では以下の高度な機能が追加・改善されました。 高次元医療画像への対応: CTやMRIなどの3次元ボリュームデータ、および病理組織学的な全スライド画像(WSI)の解釈が可能になりました。これにより、複数の画像スライスを考慮した推論が行えます。時系列(経年的)分析: 過去と現在の胸部X線写真を比較し、疾患の変化をレビューする能力が向上しました。解剖学的ローカリゼーション: 胸部X線画像内の特定の解剖学的特徴を特定する精度が大幅に向上しています。医療ドキュメントの理解: 検査レポートから構造化データ(検査項目、数値、単位)を抽出するタスクにおいて、旧モデルから18%の精度向上が見られました。軽量かつ高性能: 40億パラメータ(4B)というサイズは、オフライン環境や計算リソースが限られた環境でも動作させやすく...
    続きを読む 一部表示
    1分未満
  • 株式会社ずんだもん技術室AI放送局 podcast 20260114
    2026/01/13
    youtube版(スライド付き) 関連リンク Introducing Polly: Your AI Agent Engineer AIエージェントの開発と運用を支えるプラットフォーム「LangSmith」に、エージェント自らのデバッグや改善をサポートする画期的なAIアシスタント「Polly」が登場しました。Pollyは、いわば「エージェント専属のAIエンジニア」として、開発者が直面する複雑な課題を自然言語での対話を通じて解決します。 1. 開発の背景:エージェント開発特有の困難 従来の単純なLLM呼び出しと異なり、自律的に動く「AIエージェント」の開発には、新人エンジニアを悩ませる3つの大きな壁があります。 巨大化するプロンプト: システムプロンプトが数千行に達することもあり、どの指示が挙動を悪化させているかの特定が困難です。膨大な実行ログ(トレース): エージェントが一つのタスクを完了するのに数百ステップかかることがあり、人間が全てのログを読み解くのは非効率です。長期的なコンテキスト: 数日間に及ぶユーザーとのやり取りの中で、どのタイミングでエージェントが文脈を見失ったかを把握するのは至難の業です。 2. Pollyができる3つの主要なサポート Pollyは、LangSmithに蓄積された詳細なデータを基に、以下の3つの役割をこなします。 個別トレースのデバッグ: 「なぜこのツールを選んだのか?」「もっと効率的な手順はなかったか?」といった質問に対し、複雑な実行ステップを分析して回答します。人間が見落としがちなエラーの兆候を即座に特定します。会話スレッドの俯瞰分析: 長い対話の流れを把握し、「最初は正しく動いていたのに、なぜ途中で挙動が変わったのか」という原因を突き止めます。プロンプトエンジニアリングの自動化: これが最も強力な機能です。「こういう時はこう振る舞ってほしい」と自然言語で伝えるだけで、Pollyがシステムプロンプトや出力スキーマ、Few-shot(具体例)を自動で修正・最適化してくれます。 3. 技術的基盤と導入 Pollyの知能は、LangSmithが収集する「Run(単一ステップ)」「Trace(一連の実行)」「Thread(会話全体)」という3層のトレース基盤に基づいています。数分のセットアップで導入でき、データが流れ始めればすぐに分析を開始できます。 まとめ Pollyの登場により、エンジニアは「ログの海を彷徨う」デバッグ作業から解放され、より本質的なエージェントの設計に集中できるようになります。AIを構築するためにAIを相棒にするという、次世代の開発スタイルを象徴するツールです。現在はベータ版として提供されており、今後はさらなる最適化機能の追加が期待されています。 引用元: https://www.blog.langchain.com/introducing-polly-your-ai-agent-engineer/ ASUS、USB接続AIアクセラレータ「ASUS UGen300 USB AI Accelerator」を発表 ハードウェア Mac OTAKARA ASUSは、米国で開催されたCES 2026にて、USB-C接続で手軽にAI処理を高速化できるアクセラレータ「ASUS UGen300 USB AI Accelerator」を発表しました。このデバイスは、PCやモバイル端末に外付けするだけで、強力な生成AIの実行環境を構築できる注目のハードウェアです。 主な技術仕様として、Hailo社の生成AI向けアクセラレーションモジュール「Hailo-10H」プロセッサを採用しています。わずか2.5W(標準)という非常に低い消費電力でありながら、40 TOPS(1秒間に40兆回の演算が可能)という高いAI推論性能を実現しています。さらに、8GBの専用LPDDR4メモリを内蔵しているため、ホスト側のPCのリソースを圧迫することなく、大規模言語モデル(LLM)や画像と言語を扱うVLM、音声認識のWhisperといった複雑な生成AIタスクをスムーズに実行可能です。 開発者にとっての利便性も考慮されており、以下の特徴を備えています。 ・プラグアンドプレイ対応:USB-C接続で、Windows、Linux、Androidの各OSでシームレスに利用可能。 ・広範なフレームワーク対応:TensorFlow、PyTorch、ONNXといった主要なAIフレームワークと互換性があり、既存の開発資産を活かしたローカルAI環境の構築が容易です。 昨今、プライバシー保護や低遅延を目的とした「エッジAI(ローカル環境でのAI実行)」の需要が高まっています。このデバイスは、クラウドに依存せずリアルタイムでデータ...
    続きを読む 一部表示
    1分未満