株式会社ずんだもん技術室AI放送局 Podcast Por 株式会社ずんだもん技術室AI放送局 arte de portada

株式会社ずんだもん技術室AI放送局

株式会社ずんだもん技術室AI放送局

De: 株式会社ずんだもん技術室AI放送局
Escúchala gratis

Obtén 3 meses por US$0.99 al mes

AIやテクノロジーのトレンドを届けるPodcast。平日毎朝6時配信。朝の通勤時間や支度中に情報キャッチアップとして聞いてほしいのだ。(MC 月:春日部つむぎ、火水木:ずんだもん、金:お嬢様ずんだもん)
Episodios
  • 株式会社ずんだもん技術室AI放送局 podcast 20251216
    Dec 15 2025
    youtube版(スライド付き) 関連リンク Nemotron 3 Nano - A new Standard for Efficient, Open, and Intelligent Agentic Models NVIDIAが、効率性と性能を両立した新しいAIエージェントモデル「Nemotron 3 Nano 30B A3B」を発表しました。このモデルは、1Mトークンという長文脈に対応し、Mamba-Transformer MoEアーキテクチャを採用することで、従来のモデルと比較して最大4倍の高速化を実現しています。 主な特徴として、31.6Bパラメータ、約3.6Bの活性パラメータ、推論速度の向上、高い精度、Reasoning ON/OFF機能、そしてオープンなデータスタックが挙げられます。 学習には、大規模な事前学習、教師ありファインチューニング、そしてRLVR/RLHFといった強化学習技術が用いられています。また、NVIDIAは、RL環境構築を容易にする「NeMo Gym」も公開しており、開発者がより簡単に強化学習を試せるようにしています。 Nemotron 3 Nanoは、エージェント、推論、ツール利用、チャットタスクに最適化されており、Hugging Faceやbuild.nvidia.comなどで利用可能です。モデルの重み、学習レシピ、データセットも公開されており、研究開発を促進します。 引用元: https://huggingface.co/blog/nvidia/nemotron-3-nano-efficient-open-intelligent-models AIエージェント/MCPサーバー実装ガイドを作成しました SIOS Tech Lab SIOS Tech Labが、AIエージェントとMCP(Model Context Protocol)を体系的に学べる実装ガイドを公開しました。このガイドは、AIエージェント開発の基礎から実践までを網羅しており、201ページの大ボリュームです。 対象読者は、AIエージェント/MCPを学ぶ開発者、および関連プロジェクトのPL/PM。基礎理論を図解で分かりやすく解説し、すぐに動くソースコードも提供することで、初心者でもスムーズに学習を進められます。 ガイドは以下の7つの章で構成されています。 AIエージェントの基本概念ReActによるAIエージェント実現Function Callingによる実装MCPの理論と構造シンプルなMCPサーバー実装MCPの認可機能MCP対応AIエージェント実装 このガイドと解説セミナーを活用することで、AIエージェント/MCPサーバー開発をスムーズに進められるでしょう。 引用元: https://tech-lab.sios.jp/archives/50769 ChatGPTの記憶システムはRAGを使っていなかった - 4層アーキテクチャの衝撃 ChatGPTのメモリシステムは、多くのエンジニアが予想していたRAGやベクトルデータベースを使用せず、シンプルな4層構造で高速性を実現しているという調査結果。各層は、セッションメタデータ、長期記憶(最大33個)、最近の会話サマリー、現在のセッションメッセージで構成されます。 RAGの課題(レイテンシ、精度、複雑性)を回避し、全ての記憶をコンテキストに注入する方式を選択。モデルのスケーリングとコンテキストウィンドウ拡大により、速度と効率性を両立しています。OpenAIの哲学は「強力なモデルに大量のコンテキストを渡せば、モデルが不要な情報をフィルタリングする」というもの。 他のAI(Claude, Gemini)と比較すると、ChatGPTは日常会話の記憶継続性に優れる一方、単一会話の情報量ではGeminiに劣ります。セキュリティ面では、悪意のあるコードを記憶に注入される「Memory Injection」攻撃のリスクがあり、対策が必要です。 この設計は、特に日常会話においては、速度と利便性を優先した結果と言えます。今後のAI開発においては、RAGだけでなく、シンプルなコンテキスト注入やSQLベースのメモリエンジンなど、タスクに応じた最適なアプローチを選択することが重要になるでしょう。 引用元: https://zenn.dev/tenormusica/articles/chatgpt-memory-no-rag-2025 【ずんだもん】ずんだもんのマスコットが登場!「もちぴこ」シリーズで顔文字のようなシュールな表情を造形【プライズ】 「ずんだもん」のマスコットが、オンラインクレーンゲームやアミューズメント施設に登場。表情豊かな「もちぴこ」シリーズで、ストラップ紐付きのぬいぐるみを入手できます。 引用元: https://game.boom-app.com/entry/onlinecranegame-news20251215-10 お便り投稿フォーム (株式会社ずんだもんは架空の登場組織です)
    Más Menos
    Menos de 1 minuto
  • マジカルラブリー☆つむぎのピュアピュアA.I.放送局 podcast 20251215
    Dec 14 2025
    関連リンク OpenAI are quietly adopting skills, now available in ChatGPT and Codex CLI OpenAIがAnthropicのSkills機構を取り入れ、ChatGPTのCode InterpreterとCodex CLIにスキルサポートを静かに導入しました。スキルはMarkdownファイルとリソースを含むフォルダで構成され、ファイルシステムへのアクセス能力を持つLLMツールであれば利用可能です。 ChatGPTでは/home/oai/skillsフォルダにアクセスし、PDFやdocxなどのファイルを処理できます。PDF処理では、レイアウトやグラフィック情報を維持するため、PDFをPNG画像に変換してGPTモデルに渡すアプローチを採用しています。 Codex CLIでは、~/.codex/skillsフォルダ内のスキルを認識し、--enable skillsオプションで利用できます。スキルを利用してDatasetteプラグインを自動生成する例も紹介されています。 これらの動きは、AIエージェントの機能拡張において、軽量なスキル定義が重要であることを示唆しており、Agentic AI Foundationによる正式なドキュメント化が期待されます。 引用元: https://simonwillison.net/2025/Dec/12/openai-skills/ 🐸 なぜ今、Agentic Workflowなのか - Graflowの設計思想 本稿は「現場で使えるAIエージェントワークフロー」を目指すオーケストレーションエンジンGraflowの設計思想を、既存フレームワークとの対比を交えて解説しています。著者はエージェント導入の現実課題(本番での挙動制御、並列処理・水平スケール、Human-in-the-Loop(HITL)、長時間処理の再開、グラフの可読性悪化)を挙げ、これらを解決するために「Type B:Agentic Workflow(構造化オーケストレーション+局所的自律性)」に特化する方針を示しています[7]。GraflowはSuperAgentの内部推論をワークフローで細かく表現せず、SuperAgentを「Fatノード」として外部専門フレームワーク(Google ADK、PydanticAI、SmolAgents等)に委譲する責務分離戦略を取る点を強調しています[7][4]。 設計上の特徴と主要機能は次の通りです。1) 実行時に動的タスク生成・分岐を行えるState Machine風の制御(context.next_task/next_iteration/goto)により、事前に全分岐を定義する必要を排し柔軟なループ・ファンアウトを実現する[7]。2) ユーザ制御のcheckpoint/resumeで長時間処理の途中再開が可能(checkpointはS3/ローカル/Redis等に保存)[7]。3) HITLとcheckpointの組合せで承認待ちを非同期に扱い、タイムアウト時に自動checkpointを作ることで人の回答後に再開できる仕組みを提供する[7][6]。4) Redisベースの分散ワーカーによる水平スケールと、ローカル→分散への切替が簡単な実行バックエンドを備える[7]。5) LLM呼び出しは用途に応じて二通りのインジェクションを提供—複雑な推論はinject_llm_agent(SuperAgentラップ)、単発呼び出しはinject_llm_client(軽量・マルチモデル)—でコストと複雑度を使い分けられる[7]。6) DAG的演算子DSL(»、)とタスク内での動的遷移を組み合わせた「DAG × State Machine」ハイブリッド設計により静的可読性と動的柔軟性を両立している[7]。さらに、Dockerハンドラー、TypedChannelによる型安全なタスク間データ共有、並列グループごとの細粒度エラーポリシー(Strict / Best-effort / At-least-N / Critical / カスタム)やLangFuse/OpenTelemetry統合によるトレーシングとランタイムグラフエクスポートなど、プロダクション運用で必要な機能が揃っています[7][8]。 比較として、LangGraphはSuperAgentもワークフローも自前実装するフルスタック路線で、グラフの事前コンパイルや急峻な学習曲線、APIの流動性が問題視されている点を指摘し、Graflowはワークフローに専念して「ベストツールを組み合わせる」アプローチを採るとしています[7][3]。実用例やOSS公開・協力募集(2026年1月公開予定)についても言及されています[7]。 新人エンジニア向けの要点整理: 目的:現場で制御できてスケールするAIワークフロー(Agentic Workflow)を実装するためのライブラリ設計。SuperAgentは外部に任せ、ワークフロー制御に専念する点がキモ[7][4]。使い分け指針:複雑なマルチターン/ツール呼び出しはSuperAgent(inject_llm_agent)、単発処理はLLMClient(inject_llm_client)を使う[7]。実装ポイント:静的に見やすいDAGを演算子で定義しつつ、タスク内部でnext_task等を呼んで動的に遷移することで柔軟性を...
    Más Menos
    Menos de 1 minuto
  • 私立ずんだもん女学園放送部 podcast 20251212
    Dec 11 2025
    関連リンク たった5行で自分専用のClaude Codeを作れる ― Claude Agent SDK詳解 \nAnthropicが2025年9月に正式リリースしたClaude \ Agent SDKは、わずかなコードで本格的なAIエージェントを構築できる強力なフレームワークです。もともと「Claude Code SDK」と呼ばれていましたが、コーディングだけでなくさまざまなエージェント構築に対応できるため改名されました。SDKはAnthropicの本番環境で使われるagent \ harnessをベースにしており、高度な機能を開発者に提供します。\n\n主な特徴として、会話の自動コンテキスト管理(トークン制限を超えないよう圧縮)、豊富な組み込みツール(ファイル操作、コード実行、Web検索など)、そして独自ツールの簡単追加が挙げられます。PythonとTypeScript/JavaScriptで利用可能で、Pythonではpip\ \ install claude-agent-sdkで導入し、APIキーを環境変数に設定します。\n\nSDKの使い方はシンプルで、@toolデコレータにより加算、乗算、累乗、階乗といった数学計算ツールを簡単に定義できます。これらのツールはcreate_sdk_mcp_serverでまとめて登録し、ClaudeAgentOptionsで使用モデルや許可ツールを指定、ClaudeSDKClientで対話ループを実装します。対話は非同期ストリーミングで行われ、リアルタイムに応答が表示されます。\n \nまた、SDKはReActパターンを自然に実現しており、エージェントが「思考→行動→観察」を繰り返しながら複雑なタスクを分解・実行可能です。たとえば、複数の計算ツールを順に呼び出し、結果を組み合わせる処理も自動で行えます。さらに、エージェントは自分のツールの説明や使用例も示せるため、対話の柔軟性が高いです。\n \n本番環境向けには詳細なエラーハンドリングの実装や、権限管理の適切な設定が推奨されます。SDKは単一エージェントだけでなく、複数エージェント(subagents)を並列運用するマルチエージェント対応も可能で、大規模タスクの効率的処理が狙えます。\n \nただし、Claude Agent SDKはClaudeモデル向けに最適化されているため、他の大規模言語モデル(LLM)との互換性は限定的で、マルチモデル対応が必要ならOpenAI \ Agents SDKやLangChainなどの汎用フレームワークが適している場合もあります。\n\nまとめると、Claude Agent SDKは最小限のコードで高度なAIエージェント開発を実現し、ReActパターンや自動コンテキスト管理などの先進機能を備えた、AIエージェント開発の新基準となりうるツールです。新人エンジニアでも理解しやすく、実践的に使える設計であるため、AIエージェント開発を始める際の有力な選択肢となります。” 引用元: https://zenn.dev/acntechjp/articles/cb1be5aff11eca Introducing Polly: Your AI Agent Engineer LangChainのLangSmithに組み込まれたAIアシスタント「Polly(ベータ)」の紹介記事。Pollyはエージェント設計やデバッグを支援する「AIエージェントエンジニア」で、特に人手で解析しづらい長大なプロンプト、何百ステップにもなる実行トレース、数時間〜数日に及ぶマルチターンの会話に強みがある。主な機能は(1)個別トレース解析:失敗箇所や非効率な挙動の特定、(2)スレッド解析:複数回のやり取りを横断した要約や挙動変化の特定、(3)プロンプト設計支援:システムプロンプトの修正、出力スキーマ定義、ツール定義やfew-shot例の追加、長さ最適化など。Pollyの知見はLangSmithのトレーシング(runs/ traces/ threads)に蓄積されたデータに基づき、まずはトレース解析・会話デバッグ・プロンプト改善を提供し、将来的には実験解析やプロンプト最適化機能を拡張する予定。導入はLangSmithでトレーシングを有効化すれば利用可能。新人エンジニアは、複雑なエージェントの失敗原因特定とプロンプト設計の高速化に有用と理解してよい。’ 引用元: https://blog.langchain.com/introducing-polly-your-ai-agent-engineer/ 【アドベントカレンダー2025】AI Agentの「自律性」との向き合い方 データサイエンティスト閔氏による、AI Agentの自律性(Agency)とその設計・運用上の注意点の解説記事です。まずHugging Faceの指標を引用し、レベル0〜3で自律度を整理(レベル0:単なるLLM、レベル1:条件分岐、レベル2:Toolの自律利用、レベル3:複数AgentやTool自作)。自律度が高いほど...
    Más Menos
    Menos de 1 minuto
Todavía no hay opiniones