当前位置: 首页 > news >正文

网站被黑应该怎么做怎么做互联网营销推广

网站被黑应该怎么做,怎么做互联网营销推广,黑龙江省公开招标信息网,英文网站如何做史上最全Transformer面试题 Transformer为何使用多头注意力机制?(为什么不使用一个头)Transformer为什么Q和K使用不同的权重矩阵生成,为何不能使用同一个值进行自身的点乘? (注意和第一个问题的区别&#…

史上最全Transformer面试题

  1. Transformer为何使用多头注意力机制?(为什么不使用一个头)
  2. Transformer为什么Q和K使用不同的权重矩阵生成,为何不能使用同一个值进行自身的点乘?
    (注意和第一个问题的区别)
  3. Transformer计算attention的时候为何选择点乘而不是加法?两者计算复杂度和效果上有什么区别?
  4. 为什么在进行softmax之前需要对attention进行scaled(为什么除以dk的平方根),并使用公式推导进行讲解
  5. 在计算attention score的时候如何对padding做mask操作?
  6. 为什么在进行多头注意力的时候需要对每个head进行降维?(可以参考上面一个问题)
  7. 大概讲一下Transformer的Encoder模块?
  8. 为何在获取输入词向量之后需要对矩阵乘以embedding size的开方?意义是什么?
  9. 简单介绍一下Transformer的位置编码?有什么意义和优缺点?
  10. 你还了解哪些关于位置编码的技术,各自的优缺点是什么?
  11. 简单讲一下Transformer中的残差结构以及意义。
  12. 为什么transformer块使用LayerNorm而不是BatchNorm?LayerNorm 在Transformer的位置是哪里?
  13. 简答讲一下BatchNorm技术,以及它的优缺点。
  14. 简单描述一下Transformer中的前馈神经网络?使用了什么激活函数?相关优缺点?
  15. Encoder端和Decoder端是如何进行交互的?(在这里可以问一下关于seq2seq的attention知识)
  16. Decoder阶段的多头自注意力和encoder的多头自注意力有什么区别?(为什么需要decoder自注意力需要进行 sequence mask)
  17. Transformer的并行化提现在哪个地方?Decoder端可以做并行化吗?
  18. 简单描述一下wordpiece model 和 byte pair encoding,有实际应用过吗?
  19. Transformer训练的时候学习率是如何设定的?Dropout是如何设定的,位置在哪里?Dropout 在测试的需要有什么需要注意的吗?
  20. 引申一个关于bert问题,bert的mask为何不学习transformer在attention处进行屏蔽score的技巧?
http://www.dt0577.cn/news/51821.html

相关文章:

  • 广东省自然资源厅领导分工排名优化哪家专业
  • 成都旅游景点攻略自由行攻略站长工具seo综合查询关键词
  • php 简单购物网站镇江网站建设推广
  • 跨境电商平台培训哪家最正规百度seo规则最新
  • 淘宝客做连接网站吗友情链接只有链接
  • 青海建设厅报名网站百度下载安装到手机
  • seo顾问人seo蜘蛛屯
  • vps如果制作论坛网站沈阳线上教学
  • 成都网站建设成都广告营销的经典案例
  • 珠海做公司网站百度怎么做广告
  • 郑州模板建站平台推广方案经典范文
  • 惠州网站制作公司哪家好网站域名查询系统
  • 日本的好设计网站seo技术经理
  • 如何做网站赌博的教程今日小说百度搜索风云榜
  • wordpress做淘客网站百度客服24小时电话人工服务
  • 网站建设自评报告查询网站信息
  • 多语言网站建设平台代理合肥网站推广优化公司
  • 网络推广网站怎么做深圳网络营销和推广方案
  • 网站的策划做推广做网络推广怎么收费
  • 上海知名网站制作公司网站推广软件免费版
  • 网站需要哪些东西免费cms建站系统
  • 有空间有域名怎么做网站微指数
  • 长治网站制作百度网盘在线登录
  • 建立一个网站需要人员百度关键词优化和百度推广
  • 苏州做网站公司电话谷歌搜索引擎入口2023
  • 梦幻西如何建立网站做代练汕头seo关键词排名
  • 做网站准备百度商店应用市场
  • 制作网站多少钱外链网站
  • 哪家公司做网站专业网络营销的实现方式包括
  • 日本公司注册代办北京优化网站推广