• 【秋招】最全算法岗面试,吃透offer拿到手软!


    算法是比较复杂又基础的学科,每个学编程的人都会学习大量的算法。而根据统计,以下这28个问题是面试中最容易遇到的,本文给出了一些基本答案,供算法方向工程师或对此感兴趣的程序员参考。

    除了文章提到的这些题目之外我还整理了很多LeetCode上面的算法题以及刷题笔记

    转发本文+关注+查看评论区获取方式!!

    编辑切换为居中

    添加图片注释,不超过 140 字(可选)

    编辑切换为居中

    添加图片注释,不超过 140 字(可选)

    LSTM原理

    LSTM是循环神经网络RNN的变种,包含三个门,分别是输入门,遗忘门和输出门。

    LSTM 与 GRU区别

    (1)LSTM和GRU的性能在很多任务上不分伯仲;

    (2)GRU参数更少,因此更容易收敛,但是在大数据集的情况下,LSTM性能表现更好;

    (3)GRU 只有两个门(update和reset),LSTM 有三个门(forget,input,output),GRU 直接将hidden state 传给下一个单元,而 LSTM 用memory cell 把hidden state 包装起来。

    Transformer的原理

    Transformer本身是一个典型的encoder-decoder模型,Encoder端和Decoder端均有6个Block,Encoder端的Block包括两个模块,多头self-attention模块以及一个前馈神经网络模块;Decoder端的Block包括三个模块,多头self-attention模块,多头Encoder-Decoder attention交互模块,以及一个前馈神经网络模块;需要注意:Encoder端和Decoder端中的每个模块都有残差层和Layer Normalization层。

    Transformer的计算公式,K,Q,V怎么算

    \text { Attention }(Q, K, V)=\operatorname{softmax}\left(\frac{Q K^{T}}{\sqrt{d_{k}}}\right) V

    Q、K、V分别是输入X线性变换得到的。

    Transformer为

  • 相关阅读:
    watch与watchEffect的区别
    Java BufferedWriter.write()具有什么功能呢?
    学习笔记-SQLi
    《Python+Kivy(App开发)从入门到实践》自学笔记:高级UX部件——知识点总览
    CDO关注的5大趋势
    基础算法之背包
    请求分页内存管理模式
    Idean中的Maven
    JS加密/解密那些必须知道的事儿
    [直播自学]-[汇川easy320]搞起来(2)看文档
  • 原文地址:https://blog.csdn.net/m0_73256420/article/details/126406593