• JavaScript 迈入 AI 新纪元


    随着人工智能技术的不断进步,JavaScript 也迎来了自己的 AI 时代。

    JS-Torch 是一个全新的深度学习库,专为 JavaScript 设计,其语法习惯与广受欢迎的 PyTorch 框架高度相似。这个库提供了一整套深度学习工具,包括可追踪梯度的张量对象、多层网络结构以及自动微分功能。

    PyTorch,作为 JS-Torch 的灵感来源,是一个由 Meta AI 团队开发的开源深度学习框架。它以简洁、灵活和易用著称,其动态计算图让神经网络的构建变得更加直观。

    JS-Torch 可以通过 npm 或 pnpm 进行安装,也可以在线体验其提供的 Demo。

    npm install js-pytorch
    pnpm add js-pytorch
    

    在线体验地址:https://eduardoleao052.github.io/js-torch/assets/demo/demo.html

    目前,JS-Torch 已经支持了基本的张量操作,如加法、减法、乘法和除法等,以及一些常用的深度学习层,例如nn.Linear、nn.MultiHeadSelfAttention、nn.FullyConnected、nn.Block等。

    以下是一个简单的 JS-Torch 使用示例,展示了如何进行自动梯度计算:

    // 导入 torch 模块
    import { torch } from "js-pytorch";
    
    // 创建张量
    let x = torch.randn([8, 4, 5]);
    let w = torch.randn([8, 5, 4], { requires_grad: true });
    let b = torch.tensor([0.2, 0.5, 0.1, 0.0], { requires_grad: true });
    
    // 执行计算
    let out = torch.matmul(x, w);
    out = torch.add(out, b);
    
    // 计算梯度
    out.backward();
    
    // 输出梯度
    console.log(w.grad);
    console.log(b.grad);
    

    更复杂的使用示例,如 Transformer 模型的实现,也包含在 JS-Torch 中:

    // 导入 torch 模块和 nn 模块
    import { torch, nn } from "js-pytorch";
    
    class Transformer extends nn.Module {
      constructor(vocab_size, hidden_size, n_timesteps, n_heads, p) {
        super();
        this.embed = new nn.Embedding(vocab_size, hidden_size);
        this.pos_embed = new nn.PositionalEmbedding(n_timesteps, hidden_size);
        this.b1 = new nn.Block(hidden_size, hidden_size, n_heads, n_timesteps, { dropout_p: p });
        this.b2 = new nn.Block(hidden_size, hidden_size, n_heads, n_timesteps, { dropout_p: p });
        this.ln = new nn.LayerNorm(hidden_size);
        this.linear = new nn.Linear(hidden_size, vocab_size);
      }
    
      forward(x) {
        let z = torch.add(this.embed.forward(x), this.pos_embed.forward(x));
        z = this.b1.forward(z);
        z = this.b2.forward(z);
        z = this.ln.forward(z);
        z = this.linear.forward(z);
        return z;
      }
    }
    
    // 创建模型实例
    const model = new Transformer(vocab_size, hidden_size, n_timesteps, n_heads, dropout_p);
    
    // 定义损失函数和优化器
    const loss_func = new nn.CrossEntropyLoss();
    const optimizer = new optim.Adam(model.parameters(), { lr: 5e-3, reg: 0 });
    
    // 创建样本输入和输出
    let x = torch.randint(0, vocab_size, [batch_size, n_timesteps, 1]);
    let y = torch.randint(0, vocab_size, [batch_size, n_timesteps]);
    
    let loss;
    // 训练循环
    for (let i = 0; i < 40; i++) {
      // 通过 Transformer 模型进行前向传播
      let z = model.forward(x);
      // 计算损失
      loss = loss_func.forward(z, y);
      // 使用 torch.tensor 的 backward 方法反向传播损失
      loss.backward();
      // 更新权重
      optimizer.step();
      // 每个训练步骤后将梯度重置为零
      optimizer.zero_grad();
    }
    

    JS-Torch 为在 Node.js、Deno 等 JavaScript 运行时环境中运行 AI 应用铺平了道路。

  • 相关阅读:
    面试十三、malloc 、calloc、realloc以及new的区别
    万字逐行解析与实现Transformer,并进行德译英实战(二)
    管理器注册类方法和调用类函数方法
    mongodb一些常用的查询语句
    计算机网络第1章 (概述)
    基于知识蒸馏的两阶段去雨去雪去雾模型学习记录(三)之知识测试阶段与评估模块
    字节大佬打造1137页【数据结构与算法】神册!太香了
    【花雕动手做】有趣好玩的音乐可视化系列小项目(20)--首饰盒镜子灯
    Docker运行常见容器命令笔记
    使用AOP进行日志记录
  • 原文地址:https://www.cnblogs.com/yygmind/p/18130020