LLM-as-a-Judgeに着想を得て、エージェンティックシステムを評価するためにエージェンティックシステムを用いることを提案したAgent-as-a-Judge: Evaluate Agents with Agentsを題材に話しました。 ポッドキャストの書き起こしサービス「LISTEN」はこちら Shownotes: https://arxiv.org/abs/2410.10934v1 https://huggingface.co/DEVAI-benchmark https://github.com/metauto-ai/agent-as-a-judge/tree/main https://blog.langchain.dev/scipe-systematic-chain-improvement-and-problem-evaluation/ 出演者: seya(@sekikazu01) kagaya(@ry0_kaga)
Ubie社の事例に触発されて社内v0開発を始めた2人で、開発の知見や悩み、Figma AI等のデザインAIについて話しました ポッドキャストの書き起こしサービス「LISTEN」はこちら Shownotes: https://v0.dev/ https://www.figma.com/ja-jp/ai/ https://x.com/sys1yagi/status/1850763720630387170 出演者: seya(@sekikazu01) kagaya(@ry0_kaga)
継続的にLLMアプリケーションの評価基準や自動評価をアップデートする仕組みであるEvalGenについて書かれた論文「Who Validates the Validators? Aligning LLM-Assisted Evaluation of LLM Outputs with Human Preferences」について話しました。 ポッドキャストの書き起こしサービス「LISTEN」はこちら Shownotes: https://arxiv.org/abs/2404.12272 https://www.sh-reya.com/blog/ai-engineering-flywheel/ https://www.chainforge.ai/ https://github.com/wandb/evalForge/tree/main https://blog.langchain.dev/aligning-llm-as-a-judge-with-human-preferences/ 出演者: seya(@sekikazu01) kagaya(@ry0_kaga)
自動で行うプロンプトチューニング、Auto Prompting、そしてそれを支える評価の重要性などについて話しました。 ポッドキャストの書き起こしサービス「LISTEN」はこちら Shownotes: https://www.promptingguide.ai/techniques/ape https://platform.openai.com/docs/guides/prompt-generation https://cloud.google.com/vertex-ai/generative-ai/docs/learn/prompts/prompt-optimizer https://github.com/microsoft/sammo https://dspy-docs.vercel.app/intro/ https://github.com/KruxAI/ragbuilder https://vercel.com/blog/eval-driven-development-build-better-ai-faster https://speakerdeck.com/shuntaito/llmops-dmlops 出演者: seya(@sekikazu01) kagaya(@ry0_kaga)
今回はMicrosoftが公開したRAGタスクを4つのレベルに分類したリサーチであるRAG and Beyondがテーマです ポッドキャストの書き起こしサービス「LISTEN」はhttps://listen.style/p/aiengineeringnow Shownotes: https://arxiv.org/abs/2409.14924 https://x.com/K_Ishi_AI/status/1838765135206453254 出演者: seya(https://x.com/sekikazu01) kagaya(https://x.com/ry0_kaga)
今回はOpenAI DevDay 2024で発表されたPrompt Cachingがテーマです ポッドキャストの書き起こしサービス「LISTEN」はこちら Shownotes: https://platform.openai.com/docs/guides/prompt-caching https://www.anthropic.com/news/prompt-caching https://zenn.dev/google_cloud_jp/articles/0c257a98143152 出演者: seya(@sekikazu01) kagaya(@ry0_kaga)
今回はJina AIが提唱したLate Chunkingがテーマです。 Jina AIはEmbedding model、Reranker、Semantic chunking等のAPIを公開しているRAGに取り組む上では注目の企業です。 そんなJina AIが提唱したチャンキング手法であるLate Chunkingについて話しました。 ポッドキャストの書き起こしサービス「LISTEN」はこちら Shownotes: Jina.ai Late Chunking in Long-Context Embedding Models Late Chunking: Balancing Precision and Cost in Long Context Retrieval | Weaviate Training Text Embeddings with Jina AI What is ColBERT and Late Interaction and Why They Matter in Search? https://x.com/s_tat1204/status/1837932815931134138 出演者: seya(@sekikazu01) kagaya(@ry0_kaga)
音声AIサービスの雑談会です。特にGoogleのNotebookLMのAudio Overview、Illuminate、Retell AI、kagayaが絶賛個人開発中の音声AIサービスについて話しました。 ポッドキャストの書き起こしサービス「LISTEN」はこちら Shownotes: NotebookLM now lets you listen to a conversation about your sources AIが論文や書籍を要約してポッドキャスト風の会話音声に自動変換してくれる「Google Illuminate」が公開中 グーグル、自分だけのAI「NotebookLM」に音声番組でまとめてくれる新機能 Retell AI - Supercharge your call operation with Voice AI 音声AIエージェントの世界とRetell AI入門 出演者: seya(@sekikazu01) kagaya(@ry0_kaga)
ソフトウェアエンジニアリング領域のLLMエージェント研究のサーベイ論文である、Large Language Model-Based Agents for Software Engineering: A Surveyを題材に話しました。 ポッドキャストの書き起こしサービス「LISTEN」はこちら Shownotes: Large Language Model-Based Agents for Software Engineering: A Survey LLMエージェントのデザインパターン、Agentic Design Patternsを理解する マルチエージェントなコード生成エージェント、AgentCoderを理解する You Can REST Now: Automated Specification Inference and Black-Box... CodeAgent: Enhancing Code Generation with Tool-Integrated Agent... エージェント型AIシステム構築の7つの原則: OpenAI『Practices for Governing Agentic AI』を読み解く|mah_lab / 西見 公宏 RCAgent: Cloud Root Cause Analysis by Autonomous Agents with... “LLM for SRE“の世界探索 - ゆううきブログ 出演者: seya(@sekikazu01) kagaya(@ry0_kaga)
Chatbot Arenaのデータを使ってドメイン独自の評価データセットを作るという論文、Judging LLM-as-a-Judge with MT-Bench and Chatbot Arenaを題材に話しました。 ポッドキャストの書き起こしサービス「LISTEN」はこちら Shownotes: Judging LLM-as-a-Judge with MT-Bench and Chatbot Arena Chatbot Arena: An Open Platform for Evaluating LLMs by Human Preference Chat with Open Large Language Models From Live Data to High-Quality Benchmarks: The Arena-Hard Pipeline | LMSYS Org Benchmarks 201: Why Leaderboards > Arenas >> LLM-as-Judge https://x.com/karpathy/status/1737544497016578453 https://github.com/lm-sys/arena-hard-auto/tree/main/BenchBuilder 出演者: seya(@sekikazu01) kagaya(@ry0_kaga)