吴恩达又开课了如何让你的AI应用不再答非所问

吴恩达又折腾出新课程了!

这次他联手Vectara,搞了个短期课程,要教你 如何从头到尾搭建一个嵌入模型 。听起来很高大上?别慌,吴恩达教授可是要手把手教学,让你轻松上手哦~

课程名字叫《 嵌入模型:从架构到实现 》 。听这名字就知道,不光教你理论,还要动手实践,简直不要太良心!

那么问题来了,为啥要学这个?

吴恩达给出了一个让人无法拒绝的理由: 很多LLM应用只用一个嵌入模型来处理问题和答案,这可能会导致检索到的结果更像问题本身,而不是相关的答案 。

啥意思?打个比方:

你问:" 今天北京天气怎么样? "

AI回答:" 对不起,我不知道今天北京天气怎么样。 "

AI压根没回答你的问题,只是把你的问题重复了一遍。这不就是典型的答非所问吗?

所以吴恩达说,咱们得用 双编码器架构 ,也就是分别用不同的嵌入模型来处理问题和答案。这样才能更好地匹配问题和合适的答案。

有位不愿透露姓名的网友表示:

学这个真的能提高AI应用质量吗?感觉像是在炒冷饭...

呃,这位朋友可能对嵌入模型还不太了解。来来来,让我们看看课程到底教些啥:

词嵌入是啥 ,怎么用

从简单词嵌入到考虑上下文的 BERT ,嵌入技术是怎么进化的

对比损失 如何训练双编码器模型,一个编码器嵌入问题,另一个嵌入回答

如何分析双编码器对搜索相关性的影响,还要和单编码器的检索过程比较

看到没?这哪是炒冷饭,简直是在教你 炒米其林三星大餐 好吧!

说到这儿,我突然想起前几天的一个新闻: GPT-4o被问'9.11和9.9哪个大'时居然搞错了 。

你没看错,连GPT-4o这种顶级模型都会在这种简单问题上翻车。为啥?就是因为它没能正确理解问题的语境。

如果用上吴恩达教授这套双编码器架构,说不定就能避免这种尴尬了呢~

版权声明:
作者:clash
链接:https://www.shadowrocket6.top/94.html
来源:Shadowrocket官网
文章版权归作者所有,未经允许请勿转载。

THE END
分享
二维码
< <上一篇
下一篇>>