Folgen
-
関連リンク How Build.inc used LangGraph to launch a Multi-Agent Architecture for automating critical CRE workflows for Data Center Development.
Build.inc社が、LangGraphを活用し、商用不動産(CRE)におけるデータセンター開発の重要なワークフローを自動化するマルチエージェントアーキテクチャを構築した事例を紹介。25以上のサブエージェントからなる複雑なシステム「Dougie」は、これまで4週間かかっていた土地調査を75分で完了させる。複雑性と可変性、データの断片化、専門知識の必要性から、従来のソフトウェアでは難しかった自動化を、エージェントファーストのアプローチで解決。複数の専門エージェントが連携し、タスクを分割・実行することで、効率化を実現している。LangGraphによる非同期実行で並列処理を行い、大幅な時間短縮。エージェントをタスクに合わせて最適化し、単純化することで、より正確でモジュール化されたシステムを構築。不動産開発における反復的で複雑なワークフローを自動化し、時間とコストを削減、より戦略的な業務への集中を可能にする。
引用元: https://blog.langchain.dev/how-build-inc-used-langgraph-to-launch-a-multi-agent-architecture-for-automating-critical-cre-workflows-for-data-center-development/
「Gemini」、メモリー機能を全ユーザーに開放–有料ユーザー向けの新機能もGoogleのAI「Gemini」がアップデート。以前は有料版限定だったユーザーの好みなどを記憶する機能が、全ユーザーに開放されました。これにより、名前やプロジェクトなどの情報を毎回入力する手間が省け、より関連性の高い回答が得られます。また、有料版ユーザー向けには、スマホの画面やカメラを通してGeminiが周囲の状況を認識し、質問に答えられる機能が追加。
引用元: https://japan.zdnet.com/article/35230016/
色々なことをClineにやらせてみたAIコーディングツールClineを使って、コーディング以外にも色々なことを試した事例を紹介。タワーディフェンスゲームの作成、マリオのプレイ、ネットワーク問題の調査、図の作成など、Clineの応用範囲が広がることがわかる。特に、ネットワーク調査では、 Clineにコマンド実行を指示することで、問題の切り分けをAIが行い、頼れる存在になる様子が示されている。 Clineは開発者向けのツールだが、今後は誰もが使えるAIエージェント的ソフトが発展していくと予想される。
引用元: https://karaage.hatenadiary.jp/entry/2025/03/05/073000
指導教員がAIに研究テーマを与えたら論文が20分で生成されてしまったらしく「もう大学院生は要らないのでは?」となったが議論したら更に悲しい結論が出たAIがM2レベルの論文を短時間で生成したことが話題。しかし、AIの利用にはコストがかかる一方、大学院生は学費を払うため、人材育成とは別の側面で存在意義があるという意見が出ている。AIは既存知識のまとめ役であり、新しい視点や発見を生み出す研究には、まだ人間の役割が重要であるとの議論も。
引用元: https://togetter.com/li/2520654
お便り投稿フォーム(株式会社ずんだもんは架空の登場組織です)
-
関連リンク AIエージェント時代の可能性と実践 #AIエージェント_findy
LayerX名村氏によるAIエージェントに関する発表資料です。LLMによってソフトウエアが「考える力」を手にしたことで、ソフトウエアの能力が限界突破し、プログラムは「定義された入力→定義された出力」から「予測不要な入力→予測可能な出力」へ変化しました。AIエージェント開発に必要な技術要素として、Model Routing、Workflow、Tool、Memory、RAG、Evaluationを紹介。AIエージェントの設置場所として、サーバー、ブラウザ拡張、デスクトップアプリを比較検討し、AI SDK by Vercel、Meilisearch、LlamaIndex.TS、Langfuse等の技術を紹介しています。プロンプトインジェクションに対する対策も重要です。
引用元: https://speakerdeck.com/layerx/ai-agents-practice-202503
Inception LabsのMercury Coder:dLLMsInception Labsが開発したMercury Coderは、Diffusion Model(拡散モデル)をベースにした新しいLLMです。従来のTransformerモデルと異なり、ノイズ除去のプロセスでテキストを生成します。これにより、NVIDIA H100 GPU上でGPT-4の最大10倍の速度でテキストを生成できます。特にコード生成に優れており、高速なプログラミング支援が可能です。今後の展望として、チャットボットへの応用も期待されています。
引用元: https://zenn.dev/acntechjp/articles/8827db27237c8a
IBM、推論機能を強化したLLM「Granite 3.2」を発表IBMが企業向けLLM「Granite 3.2」を発表。推論機能向上が特徴で、CoT推論という手法で複雑な問題を分割、人間のような推論を目指しています。特に、TPOフレームワークにより、推論能力を高めつつ、タスク全体の性能を維持。また、ドキュメント理解に特化したVLMも導入し、大量のPDFデータで学習させています。さらに、長期予測が可能なTiny Time Mixerモデルも提供。これらのモデルはHugging Face等で公開されており、Apache License 2.0で利用可能です。
引用元: https://japan.zdnet.com/article/35229974/
OpenAI最高研究責任者が「(GPT-4.5では)ASCIIアートを作る能力なんかもすごく向上しました」というから初音ミクのアスキーアートを頼んでみましたOpenAIの最高研究責任者がGPT-4.5でASCIIアート生成能力が向上したと発言。実際に初音ミクのASCIIアートを生成させたところ、「やる夫」風のものが生成され、SNSで話題になっています。期待されたほどの出来ではなかったようです。
引用元: https://togetter.com/li/2520076
お便り投稿フォーム(株式会社ずんだもんは架空の登場組織です)
-
Fehlende Folgen?
-
関連リンク GitHub - WujiangXu/AgenticMemory: A novel agentic memory system
LLMエージェント向けの新しいAgentic Memoryシステム。従来の記憶システムよりも高度な記憶整理能力を持つ。Zettelkastenの原則に基づいた動的な記憶構造、高度な索引付け、構造化された属性によるノート生成、知識ネットワークの相互接続、継続的な記憶の進化と改良、エージェント主導の適応的な記憶管理が特徴。実験では既存のベースラインを上回る性能を示した。
引用元: https://github.com/WujiangXu/AgenticMemory
Pixtral-12B-2409 is now available on Amazon Bedrock Marketplace Amazon Web ServicesMistral AIのVLM「Pixtral 12B」がAmazon Bedrock Marketplaceで利用可能になりました。画像とテキストの両方を理解でき、図表の解釈、文書の質問応答、推論などが可能です。128Kトークンまでの長文に対応し、高解像度画像も処理できます。Apache 2.0ライセンスで商用利用も可能です。Bedrock Marketplaceで簡単にデプロイでき、APIやplaygroundで試すことができます。活用例として、論理パズル、商品情報抽出、車両損傷評価、手書き文字認識、GDPデータ分析などが紹介されています。利用後は不要なリソースを削除しましょう。
引用元: https://aws.amazon.com/blogs/machine-learning/pixtral-12b-2409-is-now-available-on-amazon-bedrock-marketplace/
Generative AI with Stochastic Differential Equations - IAP 2025MITのコース「Generative AI with Stochastic Differential Equations」の紹介です。拡散モデルやFlow-basedモデルといった生成AIの基盤となる数学的フレームワークを、基礎から学ぶことを目的としています。画像、動画、分子、音楽など幅広いデータ形式に対応。講義では、確率微分方程式のツールボックスを使い、Flow MatchingとDiffusion Modelを構築します。全3回の演習ラボでは、手を動かしながら理解を深めます。受講には線形代数、実解析、確率論の知識と、Python、PyTorchの経験が推奨されています。
引用元: https://diffusion.csail.mit.edu
行間とエクスキューズのあいだ ──対談|星野源×桜井政博(ゲームクリエイター)〈前編〉 YELLOW MAGAZINE+ 星野源 オフィシャルサイト星野源とゲームクリエイター桜井政博の対談。星野は桜井のゲームとコラムに親しんでおり、YouTube番組『桜井政博のゲーム作るには』に関心を持つ。番組は、桜井が自ら台本・キャプチャを行い週2~3回更新。制作費は約9000万円。桜井は技術伝承より「底上げ」を目指し、視聴者へのプラスアルファを提示。リーダーは役割の違いであり、チームより偉いわけではないと語る。桜井は、ゲームボーイで初心者も楽しめる『星のカービィ』を制作。周りの要望や状況に応じたゲーム制作をしてきた。依頼主やゲームを遊ぶ人にどれくらいリーチするかということに興味がある。
引用元: https://www.hoshinogen.com/yellow-magazine-plus/detail/?id=266
お便り投稿フォーム(株式会社ずんだもんは架空の登場組織です)
-
関連リンク Infinite Retrieval: Attention Enhanced LLMs in Long-Context Processing
大規模言語モデル(LLM)は処理できるトークン数に上限があり、長文の処理が課題でした。新しい手法InfiniRetriは、LLM自身の注意機構を利用して、入力長に制限なく正確な情報検索を可能にします。0.5Bパラメータのモデルで100万トークンを超えるデータに対して100%の精度を達成し、既存手法や大規模モデルを凌駕しました。追加学習なしで適用でき、推論速度と計算コストを削減します。
引用元: https://arxiv.org/abs/2502.12962
Gemini Code Assist によるコーディング支援が無償で利用可能にGoogleのAIコーディング支援ツール「Gemini Code Assist」の無償版が登場。学生や個人開発者も利用可能。Gemini 2.0を搭載し、実質無制限のコード補完(月最大18万回)を提供。Visual Studio CodeやJetBrains IDEで利用でき、GitHubとの連携でコードレビューも支援。自然言語でのコード生成や説明も可能。より高度な機能が必要な場合は有償版も用意。
引用元: https://cloud.google.com/blog/ja/topics/developers-practitioners/gemini-code-assist/
Cline / RooCodeを安全に使うためにDevContainerを使い始めたAIコーディングエージェントの利用時に発生しうる事故(rm -rfの暴走など)からローカル環境を保護するため、DevContainerの導入を検討した記事。DevContainerはVSCodeの拡張機能で、開発環境をDockerコンテナ内に構築する。これにより、プロジェクトごとに独立した環境が作れ、ローカル環境を汚染しない。Dockerfileを使ったカスタム環境の構築方法や、PHP Laravelでの具体的な設定例、RooCodeの組み込み方、docker-composeとの連携について解説。DevContainerを使うことで、AIツールを安全に試せる環境を手軽に構築できる。
引用元: https://zenn.dev/kusuke/articles/972fc135f85b86
いらすとや、おまえだったのか。公共の場や商店の貼り紙をAIイラストの氾濫から守ってくれていたのは…海外でAIイラストが増える中、日本では「いらすとや」が公共の場やお店の告知物を守っているという意見がSNSで話題です。「いらすとや」は、無料で利用できる豊富なイラスト素材を提供しており、その親しみやすい絵柄が安心感を与えています。AIイラストが急速に普及する一方で、「いらすとや」の存在が、ある意味でAIイラストの氾濫を抑制する役割を果たしているという見方が出ています。ただし、いらすとやの普及によって、イラストレーターの仕事が減ったという意見もあります。
引用元: https://togetter.com/li/2518133
お便り投稿フォームVOICEVOX:春日部つむぎ
-
関連リンク LangGraph 0.3 Release: Prebuilt Agents
LangGraphはAIエージェント構築フレームワークとして、Replit, Klarna, LinkedIn, Uber等で採用されている。LangGraphの基本理念は低レベルな抽象化に留めることだが、より高レベルな抽象化の価値も重視している。今回の0.3リリースでは、langgraphからlanggraph-prebuiltへcreate_react_agentを分離し、PythonとJavaScriptで構築された新しいprebuilt agentsを導入する。これらは、一般的なエージェントパターンを簡単に試せるようにしつつ、LangGraph上に構築されているため、必要に応じて容易にカスタマイズできる。コミュニティによるprebuilt agentsの貢献も奨励している。
引用元: https://blog.langchain.dev/langgraph-0-3-release-prebuilt-agents/
Claude 3.7 Sonnetの技術紹介|MizuAnthropic社の最新LLM「Claude 3.7 Sonnet」が登場。特徴は、AIが「考える時間」を指定できる拡張思考モード、128Kトークン対応、コーディング能力向上、応答の柔軟性向上、開発者向けコマンドラインツールClaude Codeの導入。SWE-bench Verifiedで最高性能、TAU-benchで最高スコアを達成。Webブラウザ、アプリ、APIで利用可能。APIでは思考時間やトークン設定を調整可能。無料プランでも利用可能だが、拡張思考モードは有料プランのみ。
引用元: https://note.com/dr_yh/n/ncbfc1194c1bb
RoboPianist: Dexterous Piano Playing with Deep Reinforcement LearningUC Berkeley、Google DeepMind、Stanford University、Simon Fraser Universityが共同で、深層強化学習を用いてロボットの手にピアノを演奏させる研究を発表しました。この研究では、高次元制御を進歩させるためのシミュレーションベンチマークとデータセットを公開しています。MuJoCo物理エンジンで構築された環境で、24自由度を持つShadow Dexterous Handsを使用し、MIDI規格の音楽データを基にピアノ演奏を学習。演奏の評価には、精度、再現率、F1スコアを使用しています。また、ピアノの運指(どの指でどの音を弾くか)を考慮した報酬関数を導入し、Repertoire-150という運指ラベル付きMIDIデータセットを構築しました。強化学習アルゴリズムDroQを使用し、エネルギーコスト、将来の目標予測、アクション空間の制約などを加えることで性能が向上。従来のMPC手法と比較して高いF1スコアを達成しました。課題として、ロボットの手の形状による制約や、指のストレッチが必要な楽曲への対応が挙げられています。
引用元: https://kzakka.com/robopianist/#demo
ミドルエンジニアの「基礎体力」を養いたい。リクルートグループのニジボックスが研修プログラムに込めた熱き思いニジボックスがミドルエンジニア向け研修プログラムを開発。指示された範囲を超え、技術選定や問題解決に必要な知識・技術を「基礎体力」と定義。研修では、深い知識理解、自力での知識獲得、論理的な判断と説明能力の3要素を重視。シニアエンジニアが議論を重ね、作問ガイドラインに基づき作成。レビューではメンターが考えさせる形式で、本質的な理解を促す。研修はエンジニアとしての市場価値向上も視野に入れている。
引用元: https://hatenanews.com/articles/2025/02/27/103000
お便り投稿フォームVOICEVOX:ずんだもん
-
関連リンク GitHub - PennyroyalTea/gibberlink: Two conversational AI agents switching from English to sound-level protocol after confirming they are both AI agents
2つのAIエージェントが、互いをAIだと認識すると、英語から音響プロトコルに切り替える実験プロジェクト。ggwaveというデータ音響通信プロトコルを使用。APIが提供されており、AIエージェントにこのプロトコルを使用させることが可能。
引用元: https://github.com/PennyroyalTea/gibberlink
Claude 3.7 Sonnetの拡張思考モードにおったまげた件Anthropic社がClaude 3.7 SonnetとClaude Codeをリリース。3.7 Sonnetは、数学・CS・コーディング支援が向上し、拡張思考モードで詳細な問題解決が可能。このモードでは、モデルが思考過程を出力し、人間のような分析的な議論を行う。記事では、N次元空間での課題を例に、標準モードと拡張思考モードを比較。拡張思考モードは、同一距離に複数の点がある場合も考慮し、より高度な推論を実現。LLMの出力が本当に正しいかを人間が判断するのに役立つツールだと述べています。
引用元: https://zenn.dev/d2c_mtech_blog/articles/aa7dd63b28af10
【考察】各部署の課題をスマートに解決する方法|足立 岳大|RAGと業務効率化オタクRAG(Retrieval-Augmented Generation)技術が、様々な部署の課題解決に役立つ可能性について解説。RAGは、問い合わせ対応の効率化、営業知識の共有、人事FAQの高度化、マーケティング情報収集、製品開発の情報統合、経理・税務ナレッジの参照など、多岐にわたる業務を効率化し、品質向上に貢献。各部門におけるRAG導入のメリットと導入前後の比較を示し、業務効率化と戦略的意思決定の支援について考察する。
引用元: https://note.com/technotimes/n/nf1d94a8fa0c9
AIを教えた友達と1ヶ月後に会ったら、言語化能力がめちゃくちゃ上がってた。今まで言語化出来ずに内側に溜め込んでいたことが、AIと喋り続けることでできるようになったAIとの対話で言語化能力が向上したという体験談。AIとのやり取りを通じて、自分の考えを具体的に表現する力が磨かれるようです。AIは、相手に伝えるために必要な情報や視点を明確にする手助けをしてくれます。まるで、優秀な先輩エンジニアにレビューしてもらうような感覚かもしれません。AIネイティブ世代は、AIを活用して思考を深め、新たな可能性を広げるかもしれません。
引用元: https://togetter.com/li/2517359
お便り投稿フォーム(株式会社ずんだもんは架空の登場組織です)
-
関連リンク 急増するAIクローラー対策として「llms.txt」を導入してみた DevelopersIO
AIクローラー対策として「llms.txt」を導入した事例です。llms.txtは、AIにサイトのクロール方法やコンテンツ利用に関する情報を伝えるためのファイルです。robots.txtと違い、LLMに特化した指示ができます。記事では、llms.txtの具体的な記述例として、クロールの頻度制限、コンテンツのライセンス、サイト構造などを設定する方法を紹介しています。これにより、AIクローラーによる過剰なアクセスを抑制し、効率的なクロールを促すことが期待できます。自組織外のWebサービスを情報源として利用する際はllms.txtの設置状況を確認し、指示に従うことが推奨されています。
引用元: https://dev.classmethod.jp/articles/llms-txt-for-ai-crawlers/
40代後半戦のキャリアとしてSREを選んだ理由と学び直していること.40代エンジニアがSREを選んだ理由と学び直しについて。SREはフルスタックエンジニアの経験を活かせる分野であり、需要も多い。SREの基礎、チーム作り、クラウドアーキテクチャ戦略を学び直し、生成AIを活用した新しい働き方を模索している。
引用元: https://shinyorke.hatenablog.com/entry/i-am-sre
Oisix「あなたにおすすめ」を支える機械学習システムOisixの「あなたにおすすめ」機能は、過去の購入履歴から顧客の好みを学習し、AIが最適な商品を推薦するシステムです。このシステムでは、顧客と商品をグラフ構造で表現し、Graph Neural Network (GNN)という機械学習モデルを使っておすすめの商品を算出します。また、多様な商品を提案するために、おすすめリストを調整したり、過去に表示した商品を避ける工夫も行っています。システムは、Snowflakeというデータ基盤とAmazon SageMakerを使って構築されており、実験を効率的に行うための仕組みも導入されています。
引用元: https://creators.oisixradaichi.co.jp/entry/2025/02/25/120858
一人でサイゼリヤに入店、スマホで注文し配膳ロボットが運んできたものを食べ、無人会計機で支払って店を出る…便利だけどそこはかとなく寂しい筆者がサイゼリヤでスマホ注文、配膳ロボット、無人会計を体験。便利さの反面、人との触れ合いの無さに寂しさを感じたという内容。効率化が進む一方で、店員とのコミュニケーションから生まれる温かさも失われているという意見も。お店側からは効率化のメリットがある一方、客としては少し寂しいという声も上がっている。
引用元: https://togetter.com/li/2516910
お便り投稿フォーム(株式会社ずんだもんは架空の登場組織です)
-
関連リンク DeepSeek-V3 Explained - Ataka Jeong - Medium
DeepSeek-V3は、オープンソースでありながら高性能かつ経済的な学習を実現したLLMです。従来のTransformerブロックをベースに、Multi-Head Latent Attention(MLA)とDeepSeekMoEという革新的な要素を取り入れています。MLAは、入力ベクトルを圧縮することで高速化と省メモリ化を実現。DeepSeekMoEは、Feed-Forward Networkを専門家(エキスパート)に分割し、入力トークンに応じて最適なエキスパートを選択・活用することで性能向上を図ります。また、DualPipeというGPU間の通信効率を改善する技術や、精度を落とす箇所を工夫する混合精度学習も導入し、学習コストを削減しています。
引用元: https://medium.com/@jjjy213/deepseek-v3-explained-fdac83ba280c
Claude 3.7 Sonnet and Claude CodeAnthropic社が最新モデル「Claude 3.7 Sonnet」を発表。特にコーディング能力が向上し、フロントエンド開発に強みを発揮する。新機能として、開発者がターミナルからClaudeに直接タスクを委任できる「Claude Code」が限定公開された。APIユーザーはモデルの思考時間も制御可能。既存モデル同様の価格で、無料版を含む全プランで利用できる。SWE-bench VerifiedとTAU-benchで最高性能を達成。GitHub連携も強化され、コードの修正、機能開発、ドキュメント作成を支援する。
引用元: https://www.anthropic.com/news/claude-3-7-sonnet
MongoDB Announces Acquisition of Voyage AI to Enable Organizations to Build Trustworthy AI Applications MongoDB, Inc.MongoDBがVoyage AIを買収。Voyage AIは、AIアプリケーション向けの高精度な情報検索技術を持つ企業です。これにより、MongoDBはAI技術を強化し、企業がより信頼性の高いAIアプリケーションを構築できるようになります。特に、AIが誤った情報を生成する「ハルシネーション」のリスクを低減し、重要な業務でのAI活用を促進することが期待されています。Voyage AIの技術は、MongoDBのデータベースに統合され、幅広い分野のデータから正確な情報を抽出できるようになります。
引用元: https://investors.mongodb.com/news-releases/news-release-details/mongodb-announces-acquisition-voyage-ai-enable-organizations/
お便り投稿フォーム(株式会社ずんだもんは架空の登場組織です)
-
今週から毎週金曜日はわたしく、お嬢様ずんだもんがMCを担当させていただきますわ。皆様、どうぞよろしくお願いいたします。 関連リンク Qwen2.5とDeepSeek R1を利用した日本語大規模言語モデル「Qwen2.5 Bakeneko 32B」シリーズを公開|rinna株式会社
rinna社が、日本語に特化した大規模言語モデル「Qwen2.5 Bakeneko 32B」シリーズを公開しました。これは、Alibaba社のQwen2.5 32Bをベースに日本語学習データを追加し、DeepSeek R1の知識を蒸留することで、日本語の性能を高めたものです。特に「DeepSeek R1 Distill Qwen2.5 Bakeneko 32B」は、少量のデータで効率的に日本語思考能力を向上させています。rinna社は、このモデルをAI研究・開発に役立ててもらうとともに、企業向けのカスタムLLMソリューション「Tamashiru Custom」を通じて、ビジネスニーズに合わせたAI活用を支援していきます。
引用元: https://rinna.co.jp/news/2025/02/20250213.html
マイクロソフト、初の量子チップ「マヨラナ1」発表-エラー減少重視マイクロソフトが初の量子コンピューティング用チップ「マヨラナ1」を発表しました。これは、従来のコンピュータでは難しい問題を解決できる量子コンピュータ開発に向けた大きな一歩です。このチップは、付箋サイズに8量子ビットを搭載し、最終的には100万量子ビットを目指しています。他社と異なり、マイクロソフトは準粒子「マヨラナ」に着目し、エラーを最小限に抑えるアプローチをとっています。マヨナラ量子ビットは、他の方式よりもエラーが起こりにくいと期待されています。量子コンピュータの実用化に向け、各社が開発を進めており、グーグルも高性能な量子チップを発表しています。
引用元: https://www.bloomberg.co.jp/news/articles/2025-02-19/SRY0CPDWX2PS00
Rustで進化するPayPayのスケーラビリティPayPayが、急成長に伴う技術的課題を解決するためにRustを導入した事例です。JavaとNodeJSで構築された既存システムのスケーリングに伴い、CPUとメモリの使用量が増加。パフォーマンス改善、JVM管理の複雑さの軽減、メモリ安全性の向上を目的としてRustに着目しました。PoC(概念実証)では、APIゲートウェイをRustで置き換えることで、CPU使用率を最大16分の1、メモリ使用量を最大100分の1に削減。レイテンシも改善されました。この結果から、PayPayはRustの導入を推進、社内学習グループを設け、他のプロジェクトへの採用を進めています。
引用元: https://blog.paypay.ne.jp/scaling-paypay-with-rust/
お便り投稿フォームVOICEVOX:ずんだもん
-
関連リンク LangChainに入門すべきでない3つの理由|philoludum
LangChainは、過度な抽象化と複雑なコードにより、カスタマイズが困難。LLM入門にも有害であり、不要な概念が多く、シンプルにならず、処理内容が理解しにくい。記事では、LangChainのAgentを例に、その複雑さを指摘。OpenAIのAPIを直接叩く方が、処理の流れを理解しやすく、応用も容易であると述べている。LangChainを学ぶよりも、EmbeddingやFine Tuningなど、応用性のある概念を学ぶべきと結論付けている。
引用元: https://note.com/philoludum/n/n771f7b7f8e51
Grok API にて $5 課金すると $150 分使えるようになるらしい?Grok APIで、5ドル課金すると毎月150ドル分のクレジットがもらえるキャンペーンが実施中です(2025/2/18時点)。APIリクエストをxAIと共有することが条件で、一度有効にすると無効にはできません。利用用途に合わせてPersonalとTeamを使い分けるのがおすすめです。Grok-3はまだ利用できません。
引用元: https://zenn.dev/schroneko/articles/de3a8f574e9ea4
DeNA南場会長が語る具体的なAIの活用がとても参考になると話題に。「初めて会う人の情報はPerplexityでその方についての必読記事はなんですかと聞いて、そのURLをすべてNotebookLMにアップ」などDeNA南場会長のAI活用事例が話題。初対面の人に関する情報をPerplexityで収集し、NotebookLMにアップして活用。経営トップが率先してAIを使いこなし、そのプロセスを公開することが重要。社内でもAI活用を推進し、業務効率化や新規事業創出を目指している。
引用元: https://togetter.com/li/2513397
お便り投稿フォーム(株式会社ずんだもんは架空の登場組織です)
-
関連リンク LangMem SDK for agent long-term memory
LangMem SDKは、AIエージェントに長期記憶を持たせ、学習能力と個別対応力を向上させるためのライブラリです。会話から情報を抽出し、プロンプトを更新してエージェントの行動を最適化し、行動、事実、イベントに関する長期記憶を維持する機能を提供します。Semantic memory(知識)、Episodic memory(経験)、Procedural memory(行動)の3種類の記憶タイプをサポートし、エージェントが長期にわたって学習し、より賢く、よりパーソナライズされた応答を生成することを支援します。
引用元: https://blog.langchain.dev/langmem-sdk-launch/
LLMs.txtについての覚書LLMがWebをクロールする際の負荷を軽減する目的で提案されたLLMs.txtについて解説。これは、LLMがWebサイトの情報を効率的に取得するための仕様を記述したテキストファイルです。robots.txtが検索エンジンのクローラーを制御するのに対し、LLMs.txtはLLMにサイト構造を伝えるサマリーとして機能します。完全な情報を提供するllms-full.txtも存在します。LLM利用者は、RAGなどの際にLLMs.txtの存在を意識すると良いでしょう。
引用元: https://zenn.dev/watany/articles/0b28a68a2dffc3
Github Copilot Agentでパワーが4倍に、1週間を振り返る|sys1yagiGitHub Copilot Agentを1週間試した結果、PR数が4倍になったとのこと。アイデア実現のハードルが下がり、定型作業が自動化可能になった。一方で、lintやCIの速度、レビュー速度がボトルネックに。テストの品質と実行速度、動作確認の速度も重要になる。今後はチームでの活用が鍵となり、チームの取り組み方のアップデートが必要。
引用元: https://note.com/sys1yagi/n/n9a7b93554e3a
「ずんだもん」「チェイス」の雪像お目見え 木古内釜谷国道沿い 2025/2/17 函館新聞社/函館地域ニュース - e-HAKODATE木古内町の国道沿いに、安斎さん制作の雪像が登場。地域の子どもたちを喜ばせようと1998年から続く恒例行事です。今年は「ずんだもん」や「チェイス」など4体のキャラクターが制作され、細部までこだわった出来栄え。夜にはライトアップも実施。展示は2月下旬まで(天候次第)。
引用元: https://www.ehako.com/news/news2024a/14599_index_msg.shtml
お便り投稿フォーム(株式会社ずんだもんは架空の登場組織です)
-
関連リンク Raspberry Pi + Tailscale + Open WebUI で手軽に自分だけの LLM 環境を構築するチュートリアル
Raspberry PiでOpen WebUIを動かし、ローカルLLMやAPIを外部から利用する方法を紹介します。Tailscaleを使うことで、自宅外からも安全にアクセスできます。
準備: Raspberry Pi (4以降推奨)、microSDカード、PCを用意。Raspberry Pi ImagerでOS (Raspberry Pi OS Lite推奨)をmicroSDに書き込み、SSHを有効化。 Tailscale導入: PCとRaspberry PiにTailscaleをインストール。Tailscale SSHを有効化し、PCからRaspberry PiへTailscale経由でSSH接続できることを確認。スマホからの接続も可能。 Open WebUIセットアップ: Raspberry PiにDockerをインストールし、Open WebUIをDockerで実行。Tailscale ServeでHTTPS接続を確立。Open WebUIで管理者アカウントを作成し、必要に応じてOpenAI APIキーなどを設定。これで、どこからでもアクセスできる自分だけのLLM環境が完成します。GPUがあれば、ローカルLLMも利用可能です。
引用元: https://zenn.dev/ikumasudo/articles/18437293cca7c7
LangGraphを使ってテックブログレビューエージェントを作ってみたInsight EdgeのMatsuzaki氏が、テックブログのレビュー作業を効率化するため、LangGraphを用いたレビューエージェントを開発。記事は、開発の背景、システム構成、レビューの流れ、具体的な実装について解説。特に、レビュー観点の洗い出しから、Agentic Workflowによる処理フローの作成、LangGraphでの実装(ステート定義、ノード追加、エッジ追加など)に焦点を当てている。成果物として、実際のレビューコメント例を紹介。課題はあるものの、表記揺れや構成など、自分では気づきにくい誤りを指摘できることを確認。今後は、出力精度や冗長性の改善、Suggestion機能の利用などを検討し、社内での実運用を目指す。
引用元: https://techblog.insightedge.jp/entry/techblog_review_agent
ChatGPTo3リアルタイム性能変動レポート2025/02/17|ChatGPTリアルタイムモニタリングChatGPT-3の性能をリアルタイムでモニタリングしたレポートです。特定のプロンプトに対する回答を繰り返し生成し、その変動を評価しています。評価項目は、回答の文字数、語彙の多様性(TTR)、プロンプトへの従順さ(命令違反記号の使用頻度、命令違反回答の割合、読点の間隔)、予想推測関連ワードの使用頻度、プロンプトの影響力、学習データの応用頻度(ウマ娘の固有名詞分析)です。過去2週間のトレンドと当日の状態を分析し、安定性や異常値を検出しています。
引用元: https://note.com/gpt4_forecast/n/n6c7b19821908
「実は…有名アセットのウマの動きはおかしいんだ」ウマが好きすぎるゲーム開発者が指摘する近年ゲームのウマ描写のおかしさ。AAAゲームですらおかしいゲーム開発者が、ゲームでよく使われる馬のアニメーションアセット「Horse Animset Pro(HAP)」の動きが、解剖学的に見ておかしいと指摘。AAAタイトルを含む多くのゲームで、馬の足の動きが不自然だったり、蹄鉄のケアが現実と異なっていたりするとのこと。開発者は、予算やターゲット層の違いは理解しつつも、アセットの品質向上を期待。
引用元: https://www.gamespark.jp/article/2025/02/17/149532.html
お便り投稿フォーム(株式会社ずんだもんは架空の登場組織です)
-
関連リンク ブラウザ操作AIエージェントの脅威を考えてみる
LLMを活用したブラウザ操作AIエージェントが登場し、Web操作の自動化が期待される一方、プロンプトインジェクションによるセキュリティリスクが浮上しています。攻撃者がWebサイトに悪意のあるプロンプトを埋め込み、AIエージェントに実行させることで、リダイレクト、ローカルファイルやCookieの窃取、パスワードリセット、GitHubプルリクエストの強制マージなど、様々な攻撃が可能になります。対策として、AIエージェントが参照する情報源の信頼性を検証し、不用意なAPI実行を制限することが重要です。
引用元: https://zenn.dev/melonattacker/articles/dd7ca650b04bbd
GitHub - JosefAlbers/VimLM: VimLM is a Vim plugin that provides an LLM-powered assistant for code editing by allowing users to interact with a local LLM model through Vim commands and automatically ingesting code context.VimLMは、Vim上でLLMを活用したコーディング支援を行うプラグインです。特徴は、ローカルLLMモデルを使用し、GitHub Copilotのようにコード補完や提案を受けられる点。コードのコンテキスト(現在のファイル、選択範囲、参照ファイルなど)を深く理解し、対話的なコーディングが可能です。オフライン環境でも利用でき、APIやデータ漏洩の心配もありません。基本的な使い方として、Ctrl-lでコンテキスト追加、Ctrl-jで会話継続、Ctrl-pでコード置換ができます。また、!includeで外部ファイルを取り込んだり、!deployでコード生成先を指定したりできます。より複雑な処理は、:VimLMコマンドで実行可能です。
引用元: https://github.com/JosefAlbers/VimLM
Audacity ® Introducing OpenVINO AI effects for AudacityAudacityにIntelが開発したOpenVINO AIエフェクトが追加されました。PC上でローカル実行可能です。音声コンテンツ向けには、ノイズ除去と文字起こし機能があります。音楽向けには、音楽生成、スタイル変換、楽器パート分離機能が利用できます。Windows版がダウンロード可能で、Linuxでのコンパイルも可能です。詳細はGitHubリポジトリを参照してください。
引用元: https://www.audacityteam.org/blog/openvino-ai-effects/
お便り投稿フォームVOICEVOX:春日部つむぎ
-
番組改編のお知らせ。来週から月曜日は春日部つむぎが担当、金曜日はわたくしお嬢様ずんだもんが担当致します。その他は、今までどおりずんだもんが担当です。今後ともよろしくお願いいたします。 関連リンク LLMの重みの量子化でパフォーマンスが改善する仕組みについて
LLM(大規模言語モデル)の重みを量子化すると、なぜ処理速度が向上するのかを解説します。ここでは「Rooflineモデル」という図を使って、計算処理がボトルネックになっているか、メモリ転送がボトルネックになっているかを視覚的に判断します。もしメモリ転送がボトルネックになっている場合、重みを量子化してデータ量を減らすことで、GPUの利用率を上げ、パフォーマンスを改善できます。ただし、量子化による速度改善は、ハードウェアやフレームワークの性能に依存し、理想的な効果が得られない場合もあります。
引用元: https://zenn.dev/bilzard/articles/how-performance-improved-by-weight-quantization
ChatGPT deep researchに見るAIが自律的に考える未来OpenAIのdeep researchは、AIが自律的に調査を行うAIエージェントです。従来のAIと異なり、人間のように試行錯誤しながら計画、検索、分析を進めます。ポイントは、AIが自律的に考え、行動する点です。調査の過程で新たな発見があれば、計画を柔軟に変更し、まるで人間のリサーチャーのようにPDCAサイクルを回します。この背景には、じっくり考えることを学習した「推論モデル」の存在があります。今後は調査業務だけでなく、様々な業務領域で自律的なAIエージェントの実現が期待できます。
引用元: https://tech.layerx.co.jp/entry/2025/02/13/175317
自分の作品をAIに学習させたくない方に。意向を設定できるようになりました|note公式noteに投稿したコンテンツを、生成AIの学習データとして利用されたくない場合、設定画面からオプトアウトできる機能が追加されました。アカウント単位で設定可能で、全ての設定コンテンツに適用されます。設定方法は、アカウント設定画面から「生成AIの学習に拒否意向を示す」をONにするだけです。
引用元: https://note.com/info/n/n21b09699c67d
お便り投稿フォーム(株式会社ずんだもんは架空の登場組織です)
-
関連リンク RAGでも「深い検索」を実現する手法「DeepRAG」
DeepRAGは、RAG(Retrieval-Augmented Generation)の性能を向上させるための新しい手法です。従来のRAGは、複雑な質問に対して十分な検索ができず、回答精度が低い場合がありました。DeepRAGでは、質問を細かく分解し、それぞれの要素に対して検索が必要かどうかを判断します。これにより、必要な情報だけを効率的に検索し、より深い、網羅的な回答を生成できます。特に、LLM(大規模言語モデル)が苦手とする「メタ認知」、つまり「自分が何を知らないか」を判断する能力を補強するため、モデルのファインチューニングを行います。実験結果では、従来の手法と比較して回答精度が大幅に向上し、検索回数も削減できることが示されています。
引用元: https://zenn.dev/knowledgesense/articles/034b613c9fd6d3
How Klarnas AI assistant redefined customer support at scale for 85 million active users決済サービスのKlarnaは、LangGraphとLangSmithを活用し、AIアシスタントを導入して顧客サポートを効率化しました。AIアシスタントは、顧客からの問い合わせ対応、払い戻し処理などを自動化し、まるで700人のフルタイムスタッフのように機能します。これにより、問い合わせ解決までの時間が80%短縮され、担当者の負担も軽減されました。また、AIによる自動化で、繰り返し作業の約70%をカバーしています。LangSmithによるテスト駆動開発とプロンプト最適化も精度向上に貢献。
引用元: https://blog.langchain.dev/customers-klarna/
「お嬢様ずんだもん」がまさかのプラスチックキット化→流れで「ずんだどん」のキット化も期待が高まりトレンド入りしてしまうPLUMPMOAから「お嬢様ずんだもん」のプラスチックキット化が発表され、話題になっています。元々ネットミームとして存在した「お嬢様ずんだもん」の立体化に、ファンからは喜びの声が上がっています。さらに、同じくネットミーム発祥の「ずんだどん」のキット化を期待する声も高まり、Twitterでトレンド入りするほどの盛り上がりを見せています。
引用元: https://togetter.com/li/2509108
お便り投稿フォームVOICEVOX:ずんだもん
-
関連リンク LangChainに入門する
LangChainは、LLMアプリケーションを効率的に開発できるフレームワークです。プロンプト管理、処理のチェーン化、AIエージェント、会話履歴の保持などの機能を提供します。LCELを使うと、処理を簡潔なコードで記述できます。
実装では、スキーマ定義による入出力の型管理、プロンプトエンジニアリングによるLLMの出力制御、そして会話の文脈を維持するためのメモリ管理が重要です。
メモリ管理には、LangGraphを利用し、会話履歴を全てLLMに送る、履歴の一部を消去する、履歴を要約するなどの方法があります。LangSmithを使うことで、LLMアプリケーションのデバッグやテストが容易になります。実践を通してLangChainを学ぶのがおすすめです。
引用元: https://zenn.dev/utokyo_aido/articles/bcbf0a8e896228
The Anthropic Economic IndexAnthropicが、AIが労働市場と経済に与える影響を理解するための「Anthropic Economic Index」を発表しました。初期レポートでは、Claude.aiの利用データを分析し、AIの利用状況を調査。ソフトウェア開発や技術文書作成でAI活用が多く、AIは人間の能力を拡張する(57%)傾向があります。AIは高賃金職で利用が多いものの、低賃金・超高賃金職では少ないことが判明。Anthropicは、データセットをオープンソース化し、研究者からの意見を募集しています。
引用元: https://www.anthropic.com/news/the-anthropic-economic-index
Automate bulk image editing with Crop.photo and Amazon Rekognition Amazon Web ServicesEvolphin Software社のCrop.photoは、Amazon Rekognitionを活用した画像編集自動化サービスです。大量の画像処理における課題を、AIによる自動化で解決します。ECサイトやスポーツ業界では、商品画像の一括処理や選手画像の切り抜きなどで効率化が求められますが、Crop.photoはこれらのニーズに対応。Amazon Rekognitionの顔認識、物体検出、コンテンツモデレーションなどの機能を活用し、画像編集ワークフローを自動化。例えば、ECサイト向けには商品画像の自動検出と適切なトリミング、スポーツ業界向けには選手顔写真の自動切り抜きなどが可能です。これにより、画像処理時間が大幅に短縮され、作業効率が向上します。
引用元: https://aws.amazon.com/blogs/machine-learning/automate-bulk-image-editing-with-crop-photo-and-amazon-rekognition/
お便り投稿フォームVOICEVOX:ずんだもん
-
関連リンク 【覚醒しました】Github CopilotはAIエージェント機能を搭載することにより、格段に扱いやすく開発しやすくなったので解説します
GitHub CopilotにAIエージェント機能が搭載され、開発がより手軽になりました。主なポイントは以下の通りです。
概要: VS Code Insidersで利用可能なAIエージェント機能。API連携コードの自動生成やエラー修正を自動で行います。 料金: Copilotの契約内で追加料金なしで利用可能。 メリット: 多くの企業でCopilotが利用許可されているため導入しやすい。ファイル修正の反復作業がスムーズ。 注意点: ターミナル連携や外部ファイル操作、URL参照にはまだ改善の余地あり。今後は外部データへのアクセス拡張、ターミナル操作の改善、GitHubリポジトリとの連携強化に期待とのことです。
引用元: https://zenn.dev/aimasaou/articles/74c89b843832b3
ChatGPTのdeep researchが凄すぎるので、徹底的に使い方と出力結果をまとめていくよ その1|カレーちゃんOpenAIが提供するChatGPTの新機能「deep research」は、複雑な調査タスクを効率的に行うためのエージェント機能です。金融、科学、エンジニアリング分野での正確な調査や、製品比較、ニッチな情報検索に役立ちます。Proユーザー向けに提供されており、詳細なリサーチボタンを有効にすることで利用可能です。SNSアカウントの分析、X(旧Twitter)のバズ投稿分析、商用利用可能なボイスチェンジャーの市場調査、企業の戦略調査など、様々な用途で活用できます。プロンプトを具体的にすることで、より精度の高い結果を得られます。
引用元: https://note.com/currypurin/n/n558fc5996586
Why 2025 will be the year of the AI agentForge Holiday GroupのCEO、Graham Donoghue氏が、ポッドキャストで2025年がAIエージェントの年になると予測しました。AIエージェントは、人間の介入なしに特定のタスクを実行する自律的なインテリジェントシステムです。同社では、オーナーやゲストとの会話、マーケティング技術にAIエージェントを活用し、競争力を高めています。AIの成熟度調査も実施し、現状把握と目標設定を行っています。Donoghue氏は、AIエージェントがビジネスに大きな変革をもたらすと考えています。
引用元: https://businesscloud.co.uk/news/why-2025-will-be-the-year-of-the-ai-agent/
スポンサー0となり先週はタマの映像を流したサザエさん、今週はサザエさんの投げキッスだった「これが楽しみまである」サザエさんのスポンサーが減少し、2月2日から提供クレジット部分にスポンサーではなく、タマやサザエさんの映像が流れる事態に。視聴者からは「楽しみ」という声も上がる一方、青森テレビでは通常通りスポンサー表示があるなど、地域によって対応が異なる状況です。
引用元: https://togetter.com/li/2509215
お便り投稿フォームVOICEVOX:春日部つむぎ
-
関連リンク Is LangGraph Used In Production?
Uber、LinkedIn、Replitなどの大手企業が、本番環境での実用的なユースケースにLangGraphを採用している。2024年以降、特定のビジネスニーズに合わせたAIエージェントの構築に焦点が移る中、これらの企業はLangGraphを活用して、信頼性、可観測性、制御性に優れたエージェントを構築している。LangGraphは、LLMの予測不可能性、オーケストレーションの複雑さ、観測性とデバッグの限界といった、AIエージェントを本番環境に導入する際の課題を克服するために開発された。LinkedInは採用担当者向けAI、AppFolioはプロパティマネージャー向けコパイロット、UberとReplitは開発サイクルを加速、Elasticはリアルタイムの脅威検出にLangGraphを活用している。LangGraphは、カスタマイズ可能で信頼性が高く、LangSmithとの統合により可観測性に優れている。
引用元: https://blog.langchain.dev/is-langgraph-used-in-production/
Gemini 2.0 is now available to everyoneGemini 2.0のアップデート情報です。新しいモデルとしてGemini 2.0 Flash-Liteが登場。これはコスト効率を重視したモデルで、Google AI StudioとVertex AIで公開プレビュー版が利用可能です。
また、Gemini 2.0 Proの実験バージョンも公開されました。これは特にコーディング性能と複雑なプロンプト処理に優れており、Google AI Studio、Vertex AI、Gemini Advancedで利用できます。
Gemini 2.0 Flashもアップデートされ、Gemini APIを通じてGoogle AI StudioとVertex AIで一般利用可能になりました。
これらのモデルはテキスト出力に対応しており、今後は他のモダリティもサポート予定です。価格等の詳細はGoogle for Developers blogを参照ください。
引用元: https://deepmind.google/discover/blog/gemini-2-0-is-now-available-to-everyone/
Google Wants Search To Be More Like an AI Assistant in 2025Googleは検索をAIアシスタントのように進化させる計画です。2025年には、AIが検索においてさらに重要な役割を果たすとSundar Pichai CEOは述べています。AI Overviewsを導入し、検索結果の要約をAIで行うようになりましたが、これは始まりに過ぎません。今後は、Project Astraのようなリアルタイムで映像を解析できるAIや、Gemini Deep Researchのような詳細な調査レポートを生成できるAIを活用し、検索がよりインタラクティブになることが期待されています。ただし、AIの導入には課題もあり、過去には不正確な情報を提供する事例もありました。
引用元: https://autogpt.net/google-wants-search-to-be-more-like-an-ai-assistant-in-2025/
お便り投稿フォーム(株式会社ずんだもんは架空の登場組織です)
-
今日の放送は先ほど発表されたばかりの最新版gemini-2.0-flashとgemini-2.0-pro-expでお届けしているのだ。 関連リンク Gemini 2.0 is now available to everyone
GoogleのGemini 2.0モデルがアップデートされ、誰でも利用可能になりました。今回のアップデートでは、Gemini 2.0 Flashの更新に加え、新たにGemini 2.0 Flash-Lite(高コスト効率モデル)とGemini 2.0 Pro Experimental(高パフォーマンスモデル)が導入されました。2.0 FlashはAPIを通じて一般公開され、開発者はプロダクション環境での利用が可能です。2.0 Pro Experimentalは特にコーディング性能と複雑なプロンプト処理に優れており、200万トークンのコンテキストウィンドウを持っています。2.0 Flash-Liteは低コストで高速な処理が特徴です。これらのモデルはテキスト出力をサポートし、今後マルチモーダル入力にも対応予定です。
引用元: https://blog.google/technology/google-deepmind/gemini-model-updates-february-2025/
ChatGPTの新機能「Deep Research」の珠玉のプロンプト/オススメ活用例/Tips|梶谷健人 / 「生成AI時代を勝ち抜く事業・組織のつくり方」OpenAIが発表したChatGPTの新機能「Deep Research」は、リサーチAIエージェントとして、ユーザーのリサーチ依頼に対し、観点候補の提示からリソース調査、最終レポート作成までを自律的に行います。Googleの同名機能とは異なり、Deep ResearchはAIが自ら考え、意見や仮説を持ちながら情報を集約し、質の高いレポートを作成します。ビジネスパーソンはProプラン(月額200ドル)に加入して使い倒すのがおすすめです。利用用途としては、マーケットリサーチや特定のSNSでのソーシャルリスニング調査(口コミや反響の調査)が特にオススメです。
引用元: https://note.com/kajiken0630/n/nc7c9c39bef86
お便り投稿フォーム(株式会社ずんだもんは架空の登場組織です)
-
関連リンク Introducing Interrupt: The AI Agent Conference by LangChain
LangChain初のAIエージェントに焦点を当てたカンファレンス「Interrupt」が5月にサンフランシスコで開催。AIエージェントの可能性、実用例、課題について議論します。エンジニア、ML実践者、データサイエンティストなどAIエージェント開発者が対象。5月13日、14日の2日間、ワークショップや講演、デモなどを予定。Andrew Ng氏などの業界リーダーも参加し、AIエージェントの最前線を学べます。参加者同士の交流も重視。チケット販売中。
引用元: https://blog.langchain.dev/introducing-interrupt-langchain-conference/
OpenAI次世代小型推論モデル「o3-mini」登場。性能や価格を解説|ChatGPT研究所OpenAIが小型推論モデル「o3-mini」をリリース。科学、数学、コーディング分野で推論能力が向上し、コスト効率も改善。ChatGPTとAPIで利用可能で、ウェブ版ではモデル選択画面から選択。開発者向けには、関数呼び出しや構造化出力、推論の深さ調整などの機能が提供。APIは段階的に提供。STEM領域での性能評価では、数学、科学的推論、プログラミングで高い成果を記録。ChatGPT Plus/Teamユーザーは即日利用可能で、Freeユーザーも試用可能。API料金も大幅に削減。
引用元: https://chatgpt-lab.com/n/n6ca9d85b47d1
Pipedrive introduces agentic AI teammates for the sales process - SiliconANGLEPipedriveが営業プロセスを支援するAIエージェントを発表。これは営業担当者がリードや戦略に集中できるよう、AIが自律的に行動し、定型タスクをこなすもの。OpenAIのLLMとPipedriveのソフトウェアを基盤とし、メール作成、レポート要約、スケジュール管理などを支援。営業担当者はAIが作成した内容を確認し、承認することで、より重要な業務に集中できる。AIはPipedrive Pulseとも連携し、顧客とのエンゲージメントを強化。2025年には機能が拡充される予定。
引用元: https://siliconangle.com/2025/02/04/pipedrive-introduces-agentic-ai-teammates-sales-process/
お便り投稿フォーム(株式会社ずんだもんは架空の登場組織です)
- Mehr anzeigen