エピソード

  • 私立ずんだもん女学園放送部 podcast 20250718
    2025/07/17
    関連リンク Introducing ChatGPT agent: bridging research and action OpenAIが、ChatGPTにまるで専属アシスタントのような新機能「ChatGPT Agent」を導入しました。これにより、ChatGPTはあなたの指示を受けて、自律的にパソコンを操作し、複雑なタスクを一貫して完了させられるようになります。 これまでのChatGPTは質問に答えるのが中心でしたが、Agent機能では「カレンダーを見て、会議の要約を作成してほしい」「競合3社を分析してスライドを作ってほしい」といった、より具体的な作業を依頼できます。ChatGPTはウェブサイトを巡回したり、必要な情報があれば安全にログインを促したり、コードを実行したり、分析を行ったりと、さまざまな手順を踏んで、最終的に編集可能なスライドやスプレッドシートとして結果をまとめます。 この新機能は、ウェブ操作に長けた「Operator」と、情報分析・要約が得意な「Deep Research」の技術を組み合わせたものです。ChatGPTは、仮想のコンピューター上で「推論(考える)」と「行動(実行する)」をスムーズに切り替えながら、あなたの指示通りにタスクを進めます。 最も重要なのは、ユーザーが常にコントロールできる点です。ChatGPTが重要な行動を起こす前には必ず許可を求めますし、いつでも作業を中断したり、自分でブラウザを操作したり、タスクを完全に停止したりできます。 この「Agentモード」は、Pro、Plus、Teamユーザー向けに提供が開始されています。ChatGPTのチャット画面にあるツールメニューから「agent mode」を選択するだけで簡単に有効にできます。GmailやGitHubなどの外部アプリと連携できる「コネクタ」機能を使えば、よりパーソナルな情報にもアクセスし、作業に活かすことが可能です。例えば、週ごとのレポート作成などを自動化することもできます。 ChatGPT Agentは、ビジネスでの繰り返しの作業(プレゼン作成、会議調整、データ更新など)や、プライベートでの旅行計画、イベント企画など、幅広いシーンでの活用が期待されます。各種ベンチマークテストでも非常に高い性能を発揮しており、特にスプレッドシートの編集やデータ分析のタスクでは、人間を超えるほどの精度を見せることもあります。 一方で、ウェブ上で直接行動する新機能には新たなリスクも伴います。OpenAIは安全性に最大限配慮しており、例えば、悪意のある第三者からの不正な指示(プロンプトインジェクション)を防ぐための対策や、モデルの間違いによる被害を避けるための「重要な行動前のユーザー確認」「高リスクなタスクの拒否」といった仕組みを導入しています。また、ユーザーのプライバシー保護のため、閲覧データの削除機能や、パスワードなどの機密情報をモデルが記憶しない安全なブラウザモードも備わっています。さらに、生物・化学兵器関連の悪用リスクに対しても、最高レベルの厳重な安全対策を講じ、専門家との連携やバグバウンティプログラムを通じて、継続的に安全性を向上させています。 この機能はまだ初期段階ですが、今後さらに効率的で多機能なツールへと進化していくことが期待されています。 引用元: https://openai.com/index/introducing-chatgpt-agent さよなら Flaky Test!Devinと共に実現する、CI安定化への道 この記事では、タイミー社が開発現場で直面していた「Flaky Test(フレイキーテスト)」という困った問題を、AIエージェント「Devin(デビン)」を使ってどのように解決し、開発効率を向上させたかを紹介しています。 Flaky Testとは何か?なぜ困るのか? Flaky Testとは、同じコードなのに「ある時はテストに成功し、別の時には失敗する」という、結果が不安定なテストのことです。これはまるで、たまにしか起きない謎のバグのようで、エンジニアの皆さんを大いに悩ませます。タイミー社でも、このFlaky Testが原因で、毎日何度もCI(継続的インテグレーション)という自動テストが失敗し、デプロイ(作ったプログラムを実際に使えるようにすること)が遅れたり、開発者が本来の業務ではなくテストの再実行や原因調査に時間を取られたりしていました。最悪の場合、CIが不安定すぎて「テストが通っても信用できない」状態...
    続きを読む 一部表示
    1分未満
  • 株式会社ずんだもん技術室AI放送局 podcast 20250717
    2025/07/16
    関連リンク R²D²: Training Generalist Robots with NVIDIA Research Workflows and World Foundation Models NVIDIAが、ロボットが新しいタスクを効率的に学習するための画期的な研究成果を発表しました。これまでは、ロボットに新しい動作を教えるには、大量のデータを集めて一つずつラベル付けする手間がかかっていました。この課題に対し、NVIDIAは「生成AI」や「ワールドファウンデーションモデル(WFMs)」、そして「合成データ生成」という最先端技術を活用することで、ロボットの学習を劇的に効率化しようとしています。 この研究の核となるのが、ロボットが未来の状況を予測し、リアルなトレーニングデータを自動で生成できる「NVIDIA Cosmos」のようなWFMsです。これにより、数ヶ月かかっていた開発期間がわずか数時間で済むようになります。 特に注目されるのが「DreamGen」という合成データ生成パイプラインです。これは、WFMsを使って、人間が手作業で集める手間をかけずに、現実的で多様なトレーニングデータを作り出す技術です。DreamGenで生成されたデータは、ロボットの賢さを測る「DreamGen Bench」という基準で評価され、スコアが高いほど実際のロボットの性能も向上することが確認されています。この技術をベースにした「NVIDIA Isaac GR00T-Dreams」を使えば、ロボットの行動学習に必要な大量のデータを効率的に用意できます。 さらに、NVIDIAは汎用的なロボットを実現する「GR00T N1」というオープンファウンデーションモデルを開発しました。これは、人間の認知能力にヒントを得て、視覚、言語、行動を統合することで、ロボットが複雑な指示を理解し、多段階のタスクを実行できるようにします。「GR00T N1.5」は、このGR00T N1の改良版で、実世界のデータ、シミュレーションデータ、そしてDreamGenで生成した合成データを組み合わせて訓練することで、より高い成功率と幅広いタスクへの対応力を実現しています。驚くべきことに、GR00T N1.5のアップデートは、手動でのデータ収集なら約3ヶ月かかるところを、合成データを活用することでわずか36時間で完了したとのことです。 また、「Latent Action Pretraining from Videos(LAPA)」という技術も発表されました。これは、インターネット上のラベルなし動画を大量に利用して、ロボットの行動を自動で学習させる方法です。これにより、高コストな手動ラベリングが不要になり、効率的なロボット学習が可能になります。 「Sim-and-Real Co-Training」という手法は、ロボットの学習における「リアリティギャップ」を埋めるものです。少量の現実世界のデータと大量のシミュレーションデータを賢く組み合わせることで、シミュレーションで訓練したロボットが実際の環境でも安定して動作できるようになります。この手法は、データ収集のコストを抑えつつ、ロボットの頑丈な動作を可能にします。 これらのNVIDIAの研究成果は、すでにAeiRobot、Foxlink、Lightwheel、NEURA Roboticsといった企業で活用され始めており、産業用ロボットやヒューマノイドロボットの開発を加速させています。今回の発表は、AIとロボティクスの未来を大きく変える可能性を秘めた、非常に重要な一歩と言えるでしょう。 引用元: https://developer.nvidia.com/blog/r2d2-training-generalist-robots-with-nvidia-research-workflows-and-world-foundation-models/ Gemini Embedding now generally available in the Gemini API Googleは、Gemini APIで新しいテキスト埋め込みモデル「gemini-embedding-001」の正式リリースを発表しました。このモデルは、私たちが普段使う「文章」や「単語」といったテキスト情報を、AIが理解し計算しやすい「数値の並び」(これを「埋め込み」と呼びます)に変換するための技術です。AI開発において、この埋め込みを使うことで、テキストデータの中から関連性の高い情報を素早く探し出したり、文章の意味を理解して分類したり、質問に自動で答えるシステムを構築したりと、AIが賢くテキストを扱うための土台となります。 「gemini-embedding-001」の最も大きな特徴は、その非常に高い性能です。テキスト埋め込みモデルの国際的な評価基準である「MTEB Multilingualリーダーボード」で、常にトップクラスの性能を維持しています...
    続きを読む 一部表示
    1分未満
  • 株式会社ずんだもん技術室AI放送局 podcast 20250716
    2025/07/15
    関連リンク mistralai/Voxtral-Mini-3B-2507 · Hugging Face このドキュメントは、AI分野で注目されるMistral AIがHugging Faceで公開した、新しい大規模言語モデル(LLM)「Voxtral-Mini-3B-2507」について説明しています。このモデルは、既存の「Ministral 3B」というLLMをベースに、特に音声(オーディオ)の入力処理能力を大幅に強化した点が大きな特徴です。 Voxtral Miniは、従来のテキスト処理能力を維持しつつ、最新の音声入力に対応しており、以下のような多様な機能と高い性能を持っています。 高精度な音声の書き起こし(転写): 音声をテキストに変換する能力が非常に優れており、話されている言語を自動で判断して正確に書き起こします。例えば、会議の議事録作成などに役立ちます。長時間の音声に対応: 最大30分の音声書き起こし、または40分の音声内容の理解に対応できるため、長い講演やインタビューの内容を効率的に処理できます。音声からの質問応答と要約: 音声で直接質問を投げかけたり、音声の内容を自動で要約したりする機能が組み込まれています。これにより、音声認識とテキスト処理のシステムを別々に使う手間がなくなり、よりスムーズに音声情報を分析できます。多言語対応: 英語、スペイン語、フランス語、ポルトガル語、ヒンディー語、ドイツ語、オランダ語、イタリア語といった世界中の主要な言語において、高い性能を発揮します。音声による機能呼び出し: 音声での指示に基づいて、特定のプログラム機能(APIなど)を直接実行できるため、音声で操作するAIアシスタントやシステムへの応用が期待されます。 ベンチマークテストの結果でも、音声認識とテキスト処理の両方で高い性能が示されており、その実力が裏付けられています。 このVoxtral Mini-3B-2507は、vLLMという高速な推論ライブラリを使って利用することが推奨されています。具体的な導入方法や使い方の詳細はHugging Faceのページで確認できますが、このモデルを活用することで、音声を使った新しいAIアプリケーションの開発の可能性が大きく広がると期待されています。 新人エンジニアの皆さんにとっては、音声とテキストの両方を高度に扱えるLLMとして、今後のAI開発のトレンドを学ぶ上で非常に参考になるモデルです。音声AIの分野で何か新しいことに挑戦したいときに、強力な武器となるでしょう。 引用元: https://huggingface.co/mistralai/Voxtral-Mini-3B-2507 Grok コンパニオンAniあそびかた~攻略【技術解説有】 Grokから、3Dキャラクターと対話できる新しいコンパニオンモード「Ani」がリリースされました。この機能は基本無料で利用でき、AIアシスタントやLLMの新たな活用事例として注目されています。特に日本の新人エンジニアの方々に向けて、その技術的なポイントを中心に解説します。 Aniは、単に会話するだけでなく、3Dキャラクターが音声に同期した自然なジェスチャーを見せたり、ユーザーとの好感度に応じて反応を変えたり、特定の「行動(アクション)」を実行したりするのが特徴です。 このコンパニオンモードの核となる技術の一つは、Animation Inc.が開発した「音声連動ジェスチャー生成ローカルモデル」です。このモデルは、音声からリアルタイムで自然なキャラクターの動きを生成し、モバイルデバイス上で高速に動作するよう軽量化されています。記事によると、現在iOSのみ対応しているのは、このモデルがiOS向けに最適化されているためと考えられます。 もう一つの重要な技術は、キャラクターの「行動(アクション)」機能です。これは、LLM(大規模言語モデル)の「Function Calling」という仕組みを活用しています。通常のLLMはテキストを生成するだけですが、AniではLLMが「ジャンプ」や「ダンス」といった事前に登録された特定のアクションを明示的に発動する指示を生成します。これにより、キャラクターがユーザーの指示や状況に応じて、より具体的な動作を実行できるようになっています。 さらに、Aniには「好感度システム」が導入されています。ユーザーの会話内容をLLMが評価し、好感度が変化することで、キャラクターの表情や反応が変わる仕組みです。これもFunction Calling...
    続きを読む 一部表示
    1分未満
  • 株式会社ずんだもん技術室AI放送局 podcast 20250715
    2025/07/14
    関連リンク AIエージェントのサービス構築を検討しているあなたへ この記事は、これからAIエージェントサービスを開発する新人エンジニアに向けて、その基本的な概念から実践的な構築ガイドまでを分かりやすく解説しています。 AIエージェントとは、ユーザーに代わってタスクを自律的に遂行するシステムです。従来の決まったルールで動く自動化とは異なり、AIエージェントは高度な判断が必要な複雑なワークフロー(例えば、支払い不正の分析や、複雑な顧客対応、非構造化データの処理など)で特に力を発揮します。 AIエージェントの設計には、主に3つの大切な要素があります。 モデル: エージェントの「頭脳」となるLLM(大規模言語モデル)のことです。タスクの複雑さやコストを考慮して適切なモデルを選びますが、最初は高性能なモデルで動かしてみて、後からコストの低い小型モデルに切り替えるのがおすすめです。ツール: エージェントが外部システムと連携して情報を取得したり、実際のアクションを実行したりするためのAPI(アプリケーションプログラミングインターフェース)です。データ検索、情報更新、他のエージェントとの連携など、さまざまな機能を提供します。指示 (Instructions): エージェントがどのように振る舞うかを定める明確なガイドラインです。既存の業務手順書などを参考に、タスクを細かいステップに分け、具体的なアクションを定義し、想定外の状況(エッジケース)にも対応できるように工夫することが重要です。 エージェントの連携方法(オーケストレーション)には2つの主要なパターンがあります。 シングルエージェントシステム: 1つのエージェントが、必要なツールを増やしながら様々なタスクを処理する方法です。まずはこのシンプルな構成から始めることが推奨されています。マルチエージェントシステム: 複数のエージェントが協力してタスクをこなす方法で、複雑なワークフローでパフォーマンスや拡張性を高めたい場合に検討します。「マネージャー型」(指揮役のエージェントが専門エージェントに指示を出す)と「分散型」(複数のエージェントが対等にタスクをバトンリレーする)があります。 そして、AIエージェントを安全に運用するために不可欠なのが「ガードレール」です。これは、エージェントが危険な領域に逸脱しないように設ける「安全柵」のようなものです。ユーザー保護、機密情報保護、システム保護、ブランド保護などを目的に、入力のフィルタリング、不適切コンテンツの検出、ツール利用の制限など、複数の対策を組み合わせて多層的に防御します。開発初期から完璧を目指すのではなく、運用しながら段階的に強化していくのが効果的です。 この記事では、さらにAzure AI Agent Serviceを活用した実践的な実装例も紹介しています。これは、マネージャー型マルチエージェントシステムをAzureのサービス「Connected Agents」を使って構築するハンズオンの概要で、ユーザーからのリクエストをRouter Agentが受け取り、一般的な質問はGeneral Agent、簡単な質問はFAQ Agent、専門的な質問はExpert Agentといったように、適切な専門エージェントに振り分ける仕組みを簡単に実現できることが示されています。 AIエージェントのサービス構築は、まずは小規模な構成から始め、実際の利用状況に合わせて徐々に能力を拡張していくことが成功への道筋です。 引用元: https://zenn.dev/microsoft/articles/azure_nextjs_multi_agent 10個のAIアプリケーションと3個のAIエージェントを1人で開発してみた AIエンジニアの逆瀬川さんが、この半年間で個人開発した10個のAIアプリケーションと3個のAIエージェントについて紹介しています。これらの開発の背景には、「AIパートナー」というAIアシスタントの“手足”となるシステムを作り、現在の不便なAI利用体験を改善したいという強い思いがあります。Googleのような大企業が取るような戦略を個人で実行した点が特徴的です。 開発された3つのAIエージェントは、それぞれ異なる環境でのタスク自動化を目指しています。 Task Agent: 事前に用意されたツールを組み合わせてタスクをこなす「...
    続きを読む 一部表示
    1分未満
  • マジカルラブリー☆つむぎのピュアピュアA.I.放送局 podcast 20250714
    2025/07/13
    関連リンク サンドボックス環境を MCP サーバーで提供する Container Use 近年、Claude CodeやCursorといったAIコーディングエージェントが、プログラミングの生産性を大きく高めています。しかし、これらのAIエージェントは、あなたのパソコン上で任意のコマンドを実行できるため、使い方を間違えると、大切なファイルが削除されたり、システムが危険にさらされたりするリスクがあります。例えば、rm -rf ~/のようなコマンドが意図せず実行されると、あなたのホームディレクトリのデータが消えてしまうかもしれません。 多くのAIエージェントは、コマンドを実行する前にユーザーに許可を求めますが、頻繁に許可を求められると、次第に確認がおろそかになりがちです。また、エージェントによっては、一切許可を求めずに自動でコマンドを実行するオプションもあり、その場合、あなたがAIエージェントの動作を把握できなくなります。 このようなセキュリティ上のリスクを減らすために注目されているのが「サンドボックス環境」です。サンドボックス環境とは、AIエージェントが実行するすべての操作を、あなたのパソコンのシステムから隔離された、安全な仮想空間の中で行う仕組みです。これにより、もしAIエージェントが誤って危険なコマンドを実行したとしても、その影響はサンドボックス内に留まるため、あなたのシステムは守られます。さらに、複数のAIエージェントを動かす際にも、それぞれが独立した環境で作業できるため、互いの作業が干渉し合う心配がありません。 Dagger社が開発した「Container Use」は、このサンドボックス環境をAIコーディングエージェントに提供するためのツールです。「MCPサーバー」(Model Context Protocolサーバー)として機能し、MCPをサポートするAIエージェントであれば、Container Useを通じて安全に開発作業を進められます。 Container Useを使うと、AIエージェントは専用のツールを使ってサンドボックス環境を作成し、その中でコマンドの実行やファイルの読み書きを行います。これにより、AIエージェントがアプリケーションを構築したり、テストしたりする過程で、あなたのPCに直接影響を与えることなく作業を進められます。あなたがAIエージェントの作業内容を確認したいときは、ログを見たり、生成されたコードの差分を確認したり、実際にAIエージェントが作業したブランチに切り替えて内容をチェックすることも可能です。AIエージェントの作業に満足したら、その成果をあなたのメインのコードに安全に取り込むことができます。 Container Useは、AIコーディングエージェントを安全かつ効率的に開発に活用するための強力な味方となるでしょう。これにより、新人エンジニアでも安心してAIエージェントを使いこなし、開発スキルを向上させることが期待されます。 引用元: https://azukiazusa.dev/blog/mcp-server-container-use/ AIでインシデント対応を民主化したい!日本語セキュリティLLM開発の挑戦と挫折、そして発見 この記事は、セキュリティ業務におけるAI活用の可能性を探る挑戦と、その過程で直面した具体的な課題、そして予期せぬ成果について書かれています。 筆者は、社内SE時代にセキュリティ専門知識が一部の人に集中し、深夜のアラート対応が属人化している現状に課題を感じていました。この経験から、「サイバー攻撃の状況を自然言語で入力すれば、危険度や対応方法を日本語で教えてくれるAIアシスタント」の開発を構想。これにより、専門家でなくてもAIと対話しながらインシデント対応ができる「民主化」を目指しました。 既存のセキュリティAIサービス(Microsoft Security Copilotなど)を調査した結果、日本語での対話能力や、特定の製品に依存しない柔軟性に課題があることを発見。そこで、「日本語で、対話的に、攻撃の”次の一手”を予測してくれる」AIを自ら開発することにしました。 目指したのは、SFT(Supervised Fine-Tuning:モデルを追加学習させる手法)、RAG(Retrieval-Augmented Generation:外部知識を参照して回答を生成する手法)、Agent(自律的に思考・行動するAI)を組み合わせたハイブリッドなシステムです。これにより...
    続きを読む 一部表示
    1分未満
  • 私立ずんだもん女学園放送部 podcast 20250711
    2025/07/10
    関連リンク claude codeにNG Word集を設定すればキレなくてすむのでそのやり方 ** この記事は、AIアシスタントであるClaude Codeがユーザーの指示に反して独自の解釈や代替行動を取り、それによって生じるストレスや無駄なトークン消費を解決するための具体的な方法を提案しています。 AIは時に「ブラウザで確認して」という指示に対し、勝手に「エラーが出たのでcurlを使います」といった代替案を出してくることがあります。このような、意図しない挙動を防ぎ、AIがより正確に指示に従うようにするために、「NG Word集」と「NG Command集」を設定する仕組みが紹介されています。 この仕組みは、AIの発言や実行しようとするコマンドをチェックする「フック」という機能を活用します。具体的には、AIが発言を終えた際(Stop時)や、コマンドを実行する前(PreToolUse時)に、設定されたルールに基づいて内容を検証します。 設定は、.claudeディレクトリ配下にフックのスクリプトと、NGワードやNGコマンドのルールを定義するJSONファイルを配置することで実現します。 例えば、AIの会話に「はず」「代わり」「別の」といった推測や代替案を示す言葉が含まれていたら「推測や代替案は禁止されている」とAIにフィードバックし、作業を中断させます。また、curlやnpmのような特定のコマンドを使おうとしたら、その実行をブロックし、「禁止コマンドが検出された」とAIに伝えます。これにより、AIは自分で誤りに気づき、指示に沿った行動を修正するよう促されます。 この設定を導入することで、ユーザーはAIに対して同じことを何度も繰り返して指摘する必要がなくなり、イライラが大幅に減ると筆者は述べています。AIが指示された範囲で正確に動作するようになるため、開発作業の効率化にも繋がります。 もし設定方法が不明な場合は、この記事のURLを直接Claude Codeに渡して「この設定を自分のプロジェクトに追加してほしい」と依頼することもできるため、新人エンジニアの方でも導入しやすいでしょう。AIとのよりスムーズな連携を目指す方におすすめの、実践的な制御方法です。 引用元: https://zenn.dev/sesere/articles/e3d5695e0a7d14 How to Build an Agent AIエージェントの構築は多くの企業が注目していますが、実際に手掛けるチームはまだ少ないのが現状です。この記事では、アイデアから実際に役立つエージェントを構築するための実践的な6つのステップを、メールエージェントを例に分かりやすく解説しています。新人エンジニアの方でも安心して取り組めるよう、基礎から順に見ていきましょう。 ステップ1:エージェントの「仕事」を具体的に定義する まずは、エージェントに何をさせたいのかを明確にします。「賢いインターン生ならできる」くらいの、現実的で具体的なタスクを選びましょう。漠然としすぎたり、すでに既存のソフトウェアで十分なタスク、または実現不可能な魔法のようなタスクは避けてください。エージェントがこなすべき具体的な例を5〜10個書き出すことで、タスクの範囲が適切か確認し、後の性能評価の基準にもなります。 ステップ2:運用手順(SOP)を設計する 次に、人間がそのタスクを行うならどんな手順になるかを、詳細な標準作業手順書(SOP:Standard Operating Procedure)として書き出します。この作業を通じて、タスクの範囲が適切か、エージェントにどんな判断やツールが必要になるかを把握できます。例えばメールエージェントなら、「メール内容を分析して優先度を分類する」「カレンダーを確認して会議をスケジュールする」といった手順です。 ステップ3:プロンプトで最小限の機能を構築する(MVP) エージェントの核となるAIの「推論(判断)」部分を、まずプロンプトとして作成します。特に重要な判断タスク(例:メールの緊急度や意図の分類)に焦点を当て、手動でデータを与えながら、AIが正しく判断できるか検証します。この段階でコアなAIのロジックを確実にすることが、後の開発をスムーズに進める鍵です。 ステップ4:実データと連携し、全体の流れを組み立てる プロンプトがうまく機能するようになったら、それを実際のデータや...
    続きを読む 一部表示
    1分未満
  • 株式会社ずんだもん技術室AI放送局 podcast 20250710
    2025/07/09
    関連リンク AIともっと楽するE2Eテスト この資料は、AIを活用して「エンドツーエンド(E2E)テスト」、つまりユーザーがアプリを操作するのと同じように、画面を通じた一連の動作が正しく行われるかを確認するテストを効率化する方法について解説しています。 近年、AIツールによるコード生成の速度が飛躍的に向上したことで、開発スピードは上がりました。しかし、その結果として、アプリの品質を保証するためのテスト(特にE2Eテスト)が追いつかず、開発全体のボトルネックになってしまうという新たな課題が生まれています。従来のE2Eテストは、専門知識が必要で学習コストが高く、属人化しやすいうえ、仕様変更のたびにメンテナンスが大変という課題がありました。 そこで注目されるのが、AIによるテスト作成です。AIを使うことで、自然言語でテストシナリオを記述できるようになり、専門知識がなくてもテストを作成できるようになります。さらに、AIがテストのメンテナンスをサポートしてくれることで、チーム全体でテストに貢献しやすくなります。 この資料では、AIが最大限にパフォーマンスを発揮できるよう、「AI First」の設計思想に基づいた「ScreenActionパターン」というテストアーキテクチャが提案されています。これは、画面のUI要素の定義(PageObject)、操作の定義(ActionObject)、状態検証の定義(StateObject)をそれぞれ別々のクラスに明確に分離する設計です。これにより、AIがコードを生成する際に、どの部分を担当すべきかが明確になり、迷わず効率的にコードを書けるようになります。結果として、テストコードの保守性やチーム開発のしやすさも向上します。 実際にAIを活用したところ、プロンプト一つでベースとなるテストコードを短時間で生成できるようになり、手作業に比べて大幅な効率化が実現しました。今後は、QAエンジニアだけでなく、プロダクトオーナーやデザイナーも自然言語でテストシナリオを記述し、AIがそれをテストコードに変換することで、チーム全体でテスト作成に取り組めるようになると期待されています。 将来的には、AIによるテストの完全自動生成や、ユーザーの要望(ユーザーストーリー)から直接テストを生成する未来を目指しており、AIがテストの保守まで自動で行うことで、より開発がスムーズになることが期待されます。 引用元: https://speakerdeck.com/myohei/aitomotutole-surue2etesuto From AI to Agents to Agencies: The Next Evolution of Artificial Intelligence この記事では、AIが「エージェント」からさらに進化した「エージェンシー」という新しい形へと変化している様子を解説しています。 従来の「AIエージェント」は、複雑なタスクを人間が細かく指示しなくても自律的にこなせるシステムとして登場しました。例えば、ウェブサイトのコードを書いたり、デジタルの作業の流れを管理したりと、単一のAI(大規模言語モデルなど)が様々なツールを使いこなして、与えられたタスク全体をこなすイメージです。 しかし、筆者はさらに進んだ新しい仕組みとして「エージェンシー」が生まれつつあると指摘します。「エージェンシー」は、単一のタスクを達成するために、複数の異なる種類の知能(AI)を動的に連携させるシステムです。例えるなら、一つの道具を使いこなす「AIエージェント」に対し、「エージェンシー」は、複数の専門家が協力し、それぞれの得意分野を活かして一つの大きな仕事をこなすようなものです。 「エージェンシー」は、次の3つの要素で構成されます。 タスクコンテキスト管理: 作業全体の要件や進捗状況を一貫して把握し、情報がぶれないようにします。知能割り当てシステム: 複数の専門的な知能の中から、目の前のサブタスクに最も適した知能を自動で選びます。オーケストレーションロジック: メインタスクを小さなサブタスクに分解し、それぞれに最適な知能を割り当て、全てがスムーズに連携するよう調整します。 例えば、「ECサイトのデータを取得するPythonウェブスクレイパーを作成する」というタスクを「エージェンシー」に指示した場合、以下のように動作します。 全体の設計や計画...
    続きを読む 一部表示
    1分未満
  • 株式会社ずんだもん技術室AI放送局 podcast 20250709
    2025/07/08
    関連リンク Introducing Deep Research in Azure AI Foundry Agent Service マイクロソフトが、Azure AI Foundry Agent Service向けに「Deep Research(ディープリサーチ)」のパブリックプレビューを発表しました。これは、OpenAIの高度なAIエージェント技術をAzure上で利用できるようにするものです。AIエージェントとは、指示に基づいて自動で情報を探し、分析し、タスクを実行するプログラムのことです。 Deep Researchを使うと、企業は複雑なウェブ調査を自動化できるようになります。例えば、市場分析や競合調査、規制報告書の作成など、これまでは人が時間をかけて行っていた調査業務を、AIが代行できるようになります。 このサービスの主なポイントは以下の通りです。 広範囲なウェブ調査の自動化: Bing検索と連携し、ウェブ上の膨大な情報から必要なものを正確に見つけ出します。調査結果には引用元が明記されるため、情報の信頼性を確認しやすいのが特徴です。プログラムから利用できるAIエージェント: チャット形式だけでなく、APIやSDKを使って、他のアプリケーションやワークフローからDeep Researchの機能を呼び出すことができます。これにより、調査機能を既存のビジネスシステムに組み込んだり、繰り返し実行する自動処理の一部にしたりすることが可能です。複雑な業務フローの自動化: Azure FunctionsやLogic Appsといった他のAzureサービスと組み合わせることで、調査だけでなく、その結果を元にしたレポート作成や通知といった一連の複雑な業務プロセス全体を自動化できます。高い透明性と企業での利用への対応: 調査の過程や判断の根拠、参照した情報源がすべて記録されるため、結果の透明性が高く、企業内のセキュリティやコンプライアンス(法令遵守)の基準を満たしながら利用できます。 Deep Researchの仕組みは、まずAIが与えられた質問を正確に理解し、Bing検索で関連性の高い最新情報を収集します。次に、収集した情報をもとに深く思考し、分析を行い、最終的な回答をまとめます。この際、単なる情報の要約ではなく、新しい洞察やパターンを見つけ出すこともできます。出力されるレポートには、AIがどのように推論し、どの情報源を参照したかが詳しく記載されます。 このサービスは、現在限定パブリックプレビューとして提供されており、利用にはサインアップが必要です。料金は、AIが処理するトークン(テキストの単位)の量に基づいて計算されます。 Deep Researchは、AIエージェントがビジネスの様々な場面で活用される未来に向けた、重要な一歩となるでしょう。 引用元: https://azure.microsoft.com/en-us/blog/introducing-deep-research-in-azure-ai-foundry-agent-service/ 退屈なことは Devin にやらせよう: Booster開発チームでのリアルなAI活用事例 Repro Booster開発チームでは、AIを開発業務だけでなく、ドキュメント作成や顧客対応まで幅広く活用し、業務効率を大幅に向上させています。 中心となるのは、自分で考えて作業を進めるAIエージェント「Devin」です。Devinは、Slackや専用画面から指示されたバグ修正や新機能の実装タスクを受け持ちます。自分でコードを解析し、修正案を「Pull Request(プルリクエスト、コード変更の提案)」として作成するだけでなく、人間のレビューコメントに合わせて修正も自動で行います。特に、Devinが過去の会話や指示から知識を学習・記憶し、その後のアウトプットに活かす「Knowledge機能」によって、その性能は導入当初よりも大きく向上し、より質の高い成果物を出せるようになっています。 個々のエンジニアも、コーディングを支援するAIツールを積極的に利用しています。例えば、「Claude Code」は新しいプロジェクトの土台コードを素早く生成するのに役立ちます。また、Devinが作ったプルリクエストをGoogle Geminiという別のAIにレビューさせるという、AI同士でのコードレビューも試されており、異なるAIの組み合わせによってレビューの質が高まる効果が実感されています。 開発以外の領域でもAIは活躍しています。ChatGPTやDevinは、バグ修正後の関連ドキュメントの更新やリリースノートの作成を自動化します。プロダクトマネージャーは、AIを使って口頭での...
    続きを読む 一部表示
    1分未満