2025/9/17

使用PyTorch建立你的第一个文本分类模型

使用PyTorch建立你的第一个文本分类模型 作者|ARAVIND PAI 编译|VK 来源|Analytics Vidhya 概述 学习如何使用PyTorch执行文本分类 理解解决文本分类时所涉及的要点 学习使用包填充(Pack Padding)特性 介绍 我总是…

  • AI算法
  • 2025/9/17
  • TwoAdmin
  • 99
  • 2025/9/17

    PyTorch Linux 安装教程

    打开 pytorch.org 官网,可以选择安装器,Python版本,CUDA 版本。 例如 Linux Pip Python3.6 CUDA 9.0 的安装命令为: pip3 install torch torchvision

  • AI算法
  • 2025/9/17
  • TwoAdmin
  • 70
  • 2025/9/17

    transformers 示例教程

    在本节中,将结合一些示例。所有这些示例都适用于多种模型,并利用 了不同模型之间非常相似的API。 重要 :要运行示例的最新版本,你必须从源代码安装并为示例安装一些特定要求。在新的虚拟环境中执行以下步骤: gi…

  • AI算法
  • 2025/9/17
  • TwoAdmin
  • 76
  • 2025/9/17

    transformers 模型上传和共享

    模型上传和共享 从v2.2.2开始,你现在可以使用库中内置的CLI上传和与社区共享你的微调模型。 首先,在以下网址上创建一个帐户。 https://huggingface.co/join 然后: transformers-cli login # 使用与huggingface.…

  • AI算法
  • 2025/9/17
  • TwoAdmin
  • 64
  • 2025/9/17

    transformers Jupyter Notebooks

    Jupyter Notebooks 我们包括三个Jupyter Notebooks,可以用来检查Pythorch模型的预测是否与原始TensorFlow模型的预测相同。 第一个Notebooks(Comparing-TF-and-PT-models.ipynb:https://github.com/huggingface/tra…

  • AI算法
  • 2025/9/17
  • TwoAdmin
  • 84
  • 2025/9/17

    transformers 预训练模型

    这里的预训练模型是当前提供的预训练模型的完整列表,以及每个模型的简短介绍。 有关包含社区上传模型的列表,请参阅https://huggingface.co/models 体系架构 名称 模型的细节 BERT bert-base-uncased 12个层…

  • AI算法
  • 2025/9/17
  • TwoAdmin
  • 76
  • 2025/9/17

    transformers 使用教程

    此页显示使用库时最常见的用例。可用的模型允许许多不同的配置,并且在用例中具有很强的通用性。这里介绍了最简单的方法,展示了诸如问答、序列分类、命名实体识别等任务的用法。 这些示例利用Auto Model,这些类将…

  • AI算法
  • 2025/9/17
  • TwoAdmin
  • 52
  • 2025/9/17

    transformers 安装

    安装 此仓库已在Python 3.5 +,PyTorch 1.0.0+和TensorFlow 2.0.0-rc1上进行了测试 你应该安装虚拟环境中的transformers。如果你不熟悉Python虚拟环境,请查看用户指南。 使用你要使用的Python版本创建一个虚拟环境…

  • AI算法
  • 2025/9/17
  • TwoAdmin
  • 63
  • 2025/9/17

    Transformers 简介:Transformers是TensorFlow 2.0和PyTorch的最新自然语言处理库

    Transformers是TensorFlow 2.0和PyTorch的最新自然语言处理库 Transformers(以前称为pytorch-transformers和pytorch-pretrained-bert)提供用于自然语言理解(NLU)和自然语言生成(NLG)的最先进的模型(BERT,GPT-2,Ro…

  • AI算法
  • 2025/9/17
  • TwoAdmin
  • 78
  • 2025/9/16

    Transformers 快速入门

    Transformers是一个为NLP的研究人员寻求使用/研究/扩展大型Transformers模型的库。 该库的设计有两个强烈的目标: 尽可能简单和快速使用: 我们尽可能限制了要学习的面向对象抽象的类的数量,实际上几乎没有抽象,…

  • AI算法
  • 2025/9/16
  • TwoAdmin
  • 75