老板喜欢什么样的下属?
今天来聊聊老板喜欢什么样的下属。这个问题其实因老板而异,工作这些年见过各种风格的老板,但不论什么风格,靠谱和有能力的下属都是重点培养对象。我们先从老板的角度,简单分析下作为下属可以从哪些方面提升这些能力。
今天来聊聊老板喜欢什么样的下属。这个问题其实因老板而异,工作这些年见过各种风格的老板,但不论什么风格,靠谱和有能力的下属都是重点培养对象。我们先从老板的角度,简单分析下作为下属可以从哪些方面提升这些能力。
I bind a custom domain finisky.eu.org
to the github
pages finisky.github.io
and then remove it. However, when I
visit finisky.github.io
, it always redirects to
finisky.eu.org
which is unavailable. I suspect the issue is
caused by cache.
Knowledge Grounded Conversation (KGC),就是基于知识的对话生成,与不使用知识的对话生成相比,生成的回复更有信息量,可更好地与用户互动。
本文不是KGC的综述,所谓漫谈,则是比较随性地聊聊这个方向的代表工作,顺带简单梳理其发展脉络。
一个看着非常简单的App:手机敲木鱼,居然能在App Store上评分4.8,十几万的评论,还有App内购买赚钱,刷新认知不?
这年头多少人绞尽脑汁做App都无人理睬,反倒被这么个极简的玩意儿割了韭菜,原因还是它抓住了用户的痛点。
微信最近有篇新闻刷屏: # 微信推出自研NLP大规模语言模型WeLM:零/少样本即可完成多种NLP任务
来看看这背后的技术原理又是什么:
Google今年发布的聊天机器人LaMDA确实惊艳,之前一个Google员工与它对话后,声称它已经有了自我意识,还上了热搜。今天就来看看这机器人背后的原理是什么。
关键词: 大模型,高质量人工标注数据。
LaMDA: Language Models for Dialog Applications
论文的标题很大,有50多个作者,挺有意思。
百度最近放出来的一篇文章,发布了一个高质量中文多轮chitchat数据集Diamonte:
Towards Boosting the Open-Domain Chatbot with Human Feedback
Diamonte数据集 下载地址
今天来看看这篇 ACL2022 的文章:
[ACL2022] Leveraging Similar Users for Personalized Language Modeling with Limited Data
解决的问题很容易理解,个性化语言模型在用户刚加入时缺少数据的冷启动问题:
Personalized language models are designed and trained to capture language patterns specific to individual users.
However, when a new user joins a platform and not enough text is available, it is harder to build effective personalized language models.
思路也比较直接,使用新用户的少量数据在已有用户中找到相似的用户,然后用相似用户的数据进行语言模型的训练,从而解决数据稀疏的问题。
实验论文,提出了三种不同的指标来进行用户相似度计算,实验证明 user embedding + interpolate model效果最好。