吴恩达又开课了如何让你的AI应用不再答非所问
吴恩达又折腾出新课程了!
这次他联手Vectara,搞了个短期课程,要教你 如何从头到尾搭建一个嵌入模型 。听起来很高大上?别慌,吴恩达教授可是要手把手教学,让你轻松上手哦~
课程名字叫《 嵌入模型:从架构到实现 》 。听这名字就知道,不光教你理论,还要动手实践,简直不要太良心!
那么问题来了,为啥要学这个?
吴恩达给出了一个让人无法拒绝的理由: 很多LLM应用只用一个嵌入模型来处理问题和答案,这可能会导致检索到的结果更像问题本身,而不是相关的答案 。
啥意思?打个比方:
你问:" 今天北京天气怎么样? "
AI回答:" 对不起,我不知道今天北京天气怎么样。 "
AI压根没回答你的问题,只是把你的问题重复了一遍。这不就是典型的答非所问吗?
所以吴恩达说,咱们得用 双编码器架构 ,也就是分别用不同的嵌入模型来处理问题和答案。这样才能更好地匹配问题和合适的答案。
有位不愿透露姓名的网友表示:
学这个真的能提高AI应用质量吗?感觉像是在炒冷饭...
呃,这位朋友可能对嵌入模型还不太了解。来来来,让我们看看课程到底教些啥:
词嵌入是啥 ,怎么用
从简单词嵌入到考虑上下文的 BERT ,嵌入技术是怎么进化的
对比损失 如何训练双编码器模型,一个编码器嵌入问题,另一个嵌入回答
如何分析双编码器对搜索相关性的影响,还要和单编码器的检索过程比较
看到没?这哪是炒冷饭,简直是在教你 炒米其林三星大餐 好吧!
说到这儿,我突然想起前几天的一个新闻: GPT-4o被问'9.11和9.9哪个大'时居然搞错了 。
你没看错,连GPT-4o这种顶级模型都会在这种简单问题上翻车。为啥?就是因为它没能正确理解问题的语境。
如果用上吴恩达教授这套双编码器架构,说不定就能避免这种尴尬了呢~
版权声明:
作者:clash
链接:https://www.shadowrocket6.top/94.html
来源:Shadowrocket官网
文章版权归作者所有,未经允许请勿转载。


共有 0 条评论