Browse Source

delete the alias in files.

tags/v0.4.10
ChenXin 5 years ago
parent
commit
3651d61f41
20 changed files with 4 additions and 59 deletions
  1. +0
    -2
      fastNLP/embeddings/bert_embedding.py
  2. +0
    -4
      fastNLP/embeddings/char_embedding.py
  3. +0
    -2
      fastNLP/embeddings/elmo_embedding.py
  4. +0
    -2
      fastNLP/embeddings/embedding.py
  5. +0
    -2
      fastNLP/embeddings/stack_embedding.py
  6. +0
    -2
      fastNLP/embeddings/static_embedding.py
  7. +0
    -2
      fastNLP/modules/decoder/crf.py
  8. +0
    -2
      fastNLP/modules/decoder/mlp.py
  9. +0
    -2
      fastNLP/modules/decoder/utils.py
  10. +0
    -1
      fastNLP/modules/encoder/attention.py
  11. +0
    -2
      fastNLP/modules/encoder/bert.py
  12. +0
    -6
      fastNLP/modules/encoder/char_encoder.py
  13. +0
    -2
      fastNLP/modules/encoder/conv_maxpool.py
  14. +0
    -2
      fastNLP/modules/encoder/lstm.py
  15. +0
    -8
      fastNLP/modules/encoder/pooling.py
  16. +0
    -3
      fastNLP/modules/encoder/star_transformer.py
  17. +0
    -3
      fastNLP/modules/encoder/transformer.py
  18. +0
    -6
      fastNLP/modules/encoder/variational_rnn.py
  19. +4
    -4
      reproduction/text_classification/data/sstloader.py
  20. +0
    -2
      reproduction/text_classification/model/awdlstm_module.py

+ 0
- 2
fastNLP/embeddings/bert_embedding.py View File

@@ -26,8 +26,6 @@ from ..core import logger

class BertEmbedding(ContextualEmbedding):
"""
别名::class:`fastNLP.embeddings.BertEmbedding` :class:`fastNLP.embeddings.bert_embedding.BertEmbedding`

使用BERT对words进行编码的Embedding。建议将输入的words长度限制在430以内,而不要使用512(根据预训练模型参数,可能有变化)。这是由于
预训练的bert模型长度限制为512个token,而因为输入的word是未进行word piece分割的(word piece的分割有BertEmbedding在输入word
时切分),在分割之后长度可能会超过最大长度限制。


+ 0
- 4
fastNLP/embeddings/char_embedding.py View File

@@ -24,8 +24,6 @@ from ..core import logger

class CNNCharEmbedding(TokenEmbedding):
"""
别名::class:`fastNLP.embeddings.CNNCharEmbedding` :class:`fastNLP.embeddings.char_embedding.CNNCharEmbedding`

使用CNN生成character embedding。CNN的结构为, embed(x) -> Dropout(x) -> CNN(x) -> activation(x) -> pool -> fc -> Dropout.
不同的kernel大小的fitler结果是concat起来然后通过一层fully connected layer, 然后输出word的表示。

@@ -179,8 +177,6 @@ class CNNCharEmbedding(TokenEmbedding):

class LSTMCharEmbedding(TokenEmbedding):
"""
别名::class:`fastNLP.embeddings.LSTMCharEmbedding` :class:`fastNLP.embeddings.char_embedding.LSTMCharEmbedding`

使用LSTM的方式对character进行encode. embed(x) -> Dropout(x) -> LSTM(x) -> activation(x) -> pool -> Dropout

Example::


+ 0
- 2
fastNLP/embeddings/elmo_embedding.py View File

@@ -22,8 +22,6 @@ from ..core import logger

class ElmoEmbedding(ContextualEmbedding):
"""
别名::class:`fastNLP.embeddings.ElmoEmbedding` :class:`fastNLP.embeddings.elmo_embedding.ElmoEmbedding`

使用ELMo的embedding。初始化之后,只需要传入words就可以得到对应的embedding。当前支持的使用名称初始化的模型有以下的这些(待补充)

Example::


+ 0
- 2
fastNLP/embeddings/embedding.py View File

@@ -17,8 +17,6 @@ from .utils import get_embeddings

class Embedding(nn.Module):
"""
别名::class:`fastNLP.embeddings.Embedding` :class:`fastNLP.embeddings.embedding.Embedding`

词向量嵌入,支持输入多种方式初始化. 可以通过self.num_embeddings获取词表大小; self.embedding_dim获取embedding的维度.

Example::


+ 0
- 2
fastNLP/embeddings/stack_embedding.py View File

@@ -17,8 +17,6 @@ from .embedding import TokenEmbedding

class StackEmbedding(TokenEmbedding):
"""
别名::class:`fastNLP.embeddings.StackEmbedding` :class:`fastNLP.embeddings.stack_embedding.StackEmbedding`

支持将多个embedding集合成一个embedding。

Example::


+ 0
- 2
fastNLP/embeddings/static_embedding.py View File

@@ -24,8 +24,6 @@ from ..core import logger

class StaticEmbedding(TokenEmbedding):
"""
别名::class:`fastNLP.embeddings.StaticEmbedding` :class:`fastNLP.embeddings.static_embedding.StaticEmbedding`

StaticEmbedding组件. 给定预训练embedding的名称或路径,根据vocab从embedding中抽取相应的数据(只会将出现在vocab中的词抽取出来,
如果没有找到,则会随机初始化一个值(但如果该word是被标记为no_create_entry的话,则不会单独创建一个值,而是会被指向unk的index))。
当前支持自动下载的预训练vector有以下的几种(待补充);


+ 0
- 2
fastNLP/modules/decoder/crf.py View File

@@ -15,8 +15,6 @@ from typing import Union

def allowed_transitions(tag_vocab:Union[Vocabulary, dict], encoding_type=None, include_start_end=False):
"""
别名::class:`fastNLP.modules.allowed_transitions` :class:`fastNLP.modules.decoder.allowed_transitions`

给定一个id到label的映射表,返回所有可以跳转的(from_tag_id, to_tag_id)列表。

:param ~fastNLP.Vocabulary,dict tag_vocab: 支持类型为tag或tag-label。只有tag的,比如"B", "M"; 也可以是"B-NN", "M-NN",


+ 0
- 2
fastNLP/modules/decoder/mlp.py View File

@@ -12,8 +12,6 @@ from ..utils import initial_parameter

class MLP(nn.Module):
"""
别名::class:`fastNLP.modules.MLP` :class:`fastNLP.modules.decoder.MLP`

多层感知器

:param List[int] size_layer: 一个int的列表,用来定义MLP的层数,列表中的数字为每一层是hidden数目。MLP的层数为 len(size_layer) - 1


+ 0
- 2
fastNLP/modules/decoder/utils.py View File

@@ -8,8 +8,6 @@ import torch

def viterbi_decode(logits, transitions, mask=None, unpad=False):
r"""
别名::class:`fastNLP.modules.viterbi_decode` :class:`fastNLP.modules.decoder.viterbi_decode`

给定一个特征矩阵以及转移分数矩阵,计算出最佳的路径以及对应的分数

:param torch.FloatTensor logits: batch_size x max_len x num_tags,特征矩阵。


+ 0
- 1
fastNLP/modules/encoder/attention.py View File

@@ -45,7 +45,6 @@ class DotAttention(nn.Module):

class MultiHeadAttention(nn.Module):
"""
别名::class:`fastNLP.modules.MultiHeadAttention` :class:`fastNLP.modules.encoder.MultiHeadAttention`

:param input_size: int, 输入维度的大小。同时也是输出维度的大小。
:param key_size: int, 每个head的维度大小。


+ 0
- 2
fastNLP/modules/encoder/bert.py View File

@@ -348,8 +348,6 @@ class BertPooler(nn.Module):

class BertModel(nn.Module):
"""
别名::class:`fastNLP.modules.BertModel` :class:`fastNLP.modules.encoder.BertModel`

BERT(Bidirectional Embedding Representations from Transformers).

用预训练权重矩阵来建立BERT模型::


+ 0
- 6
fastNLP/modules/encoder/char_encoder.py View File

@@ -13,8 +13,6 @@ from ..utils import initial_parameter
# from torch.nn.init import xavier_uniform
class ConvolutionCharEncoder(nn.Module):
"""
别名::class:`fastNLP.modules.ConvolutionCharEncoder` :class:`fastNLP.modules.encoder.ConvolutionCharEncoder`

char级别的卷积编码器.
:param int char_emb_size: char级别embedding的维度. Default: 50
@@ -60,11 +58,7 @@ class ConvolutionCharEncoder(nn.Module):

class LSTMCharEncoder(nn.Module):
"""
别名::class:`fastNLP.modules.LSTMCharEncoder` :class:`fastNLP.modules.encoder.LSTMCharEncoder`

char级别基于LSTM的encoder.
"""

def __init__(self, char_emb_size=50, hidden_size=None, initial_method=None):


+ 0
- 2
fastNLP/modules/encoder/conv_maxpool.py View File

@@ -10,8 +10,6 @@ import torch.nn.functional as F

class ConvMaxpool(nn.Module):
"""
别名::class:`fastNLP.modules.ConvMaxpool` :class:`fastNLP.modules.encoder.ConvMaxpool`

集合了Convolution和Max-Pooling于一体的层。给定一个batch_size x max_len x input_size的输入,返回batch_size x
sum(output_channels) 大小的matrix。在内部,是先使用CNN给输入做卷积,然后经过activation激活层,在通过在长度(max_len)
这一维进行max_pooling。最后得到每个sample的一个向量表示。


+ 0
- 2
fastNLP/modules/encoder/lstm.py View File

@@ -14,8 +14,6 @@ import torch.nn.utils.rnn as rnn

class LSTM(nn.Module):
"""
别名::class:`fastNLP.modules.LSTM` :class:`fastNLP.modules.encoder.LSTM`

LSTM 模块, 轻量封装的Pytorch LSTM. 在提供seq_len的情况下,将自动使用pack_padded_sequence; 同时默认将forget gate的bias初始化
为1; 且可以应对DataParallel中LSTM的使用问题。



+ 0
- 8
fastNLP/modules/encoder/pooling.py View File

@@ -12,8 +12,6 @@ import torch.nn as nn

class MaxPool(nn.Module):
"""
别名::class:`fastNLP.modules.MaxPool` :class:`fastNLP.modules.encoder.MaxPool`

Max-pooling模块。
:param stride: 窗口移动大小,默认为kernel_size
@@ -61,8 +59,6 @@ class MaxPool(nn.Module):

class MaxPoolWithMask(nn.Module):
"""
别名::class:`fastNLP.modules.MaxPoolWithMask` :class:`fastNLP.modules.encoder.MaxPoolWithMask`

带mask矩阵的max pooling。在做max-pooling的时候不会考虑mask值为0的位置。
"""

@@ -101,8 +97,6 @@ class KMaxPool(nn.Module):

class AvgPool(nn.Module):
"""
别名::class:`fastNLP.modules.AvgPool` :class:`fastNLP.modules.encoder.AvgPool`

给定形如[batch_size, max_len, hidden_size]的输入,在最后一维进行avg pooling. 输出为[batch_size, hidden_size]
"""

@@ -128,8 +122,6 @@ class AvgPool(nn.Module):

class AvgPoolWithMask(nn.Module):
"""
别名::class:`fastNLP.modules.AvgPoolWithMask` :class:`fastNLP.modules.encoder.AvgPoolWithMask`

给定形如[batch_size, max_len, hidden_size]的输入,在最后一维进行avg pooling. 输出为[batch_size, hidden_size], pooling
的时候只会考虑mask为1的位置
"""


+ 0
- 3
fastNLP/modules/encoder/star_transformer.py View File

@@ -14,9 +14,6 @@ from torch.nn import functional as F

class StarTransformer(nn.Module):
"""
别名::class:`fastNLP.modules.StarTransformer` :class:`fastNLP.modules.encoder.StarTransformer`


Star-Transformer 的encoder部分。 输入3d的文本输入, 返回相同长度的文本编码

paper: https://arxiv.org/abs/1902.09113


+ 0
- 3
fastNLP/modules/encoder/transformer.py View File

@@ -10,9 +10,6 @@ from .attention import MultiHeadAttention

class TransformerEncoder(nn.Module):
"""
别名::class:`fastNLP.modules.TransformerEncoder` :class:`fastNLP.modules.encoder.TransformerEncoder`


transformer的encoder模块,不包含embedding层

:param int num_layers: transformer的层数


+ 0
- 6
fastNLP/modules/encoder/variational_rnn.py View File

@@ -223,8 +223,6 @@ class VarRNNBase(nn.Module):

class VarLSTM(VarRNNBase):
"""
别名::class:`fastNLP.modules.VarLSTM` :class:`fastNLP.modules.encoder.VarLSTM`

Variational Dropout LSTM.

:param input_size: 输入 `x` 的特征维度
@@ -248,8 +246,6 @@ class VarLSTM(VarRNNBase):

class VarRNN(VarRNNBase):
"""
别名::class:`fastNLP.modules.VarRNN` :class:`fastNLP.modules.encoder.VarRNN`

Variational Dropout RNN.

:param input_size: 输入 `x` 的特征维度
@@ -273,8 +269,6 @@ class VarRNN(VarRNNBase):

class VarGRU(VarRNNBase):
"""
别名::class:`fastNLP.modules.VarGRU` :class:`fastNLP.modules.encoder.VarGRU`

Variational Dropout GRU.

:param input_size: 输入 `x` 的特征维度


+ 4
- 4
reproduction/text_classification/data/sstloader.py View File

@@ -11,11 +11,7 @@ from reproduction.utils import check_dataloader_paths, get_tokenizer


class SSTLoader(DataSetLoader):
URL = 'https://nlp.stanford.edu/sentiment/trainDevTestTrees_PTB.zip'
DATA_DIR = 'sst/'

"""
别名::class:`fastNLP.io.SSTLoader` :class:`fastNLP.io.dataset_loader.SSTLoader`
读取SST数据集, DataSet包含fields::
words: list(str) 需要分类的文本
target: str 文本的标签
@@ -23,6 +19,10 @@ class SSTLoader(DataSetLoader):
:param subtree: 是否将数据展开为子树,扩充数据量. Default: ``False``
:param fine_grained: 是否使用SST-5标准,若 ``False`` , 使用SST-2。Default: ``False``
"""

URL = 'https://nlp.stanford.edu/sentiment/trainDevTestTrees_PTB.zip'
DATA_DIR = 'sst/'

def __init__(self, subtree=False, fine_grained=False):
self.subtree = subtree
tag_v = {'0': 'very negative', '1': 'negative', '2': 'neutral',


+ 0
- 2
reproduction/text_classification/model/awdlstm_module.py View File

@@ -17,8 +17,6 @@ from .weight_drop import WeightDrop

class LSTM(nn.Module):
"""
别名::class:`fastNLP.modules.LSTM` :class:`fastNLP.modules.encoder.lstm.LSTM`

LSTM 模块, 轻量封装的Pytorch LSTM. 在提供seq_len的情况下,将自动使用pack_padded_sequence; 同时默认将forget gate的bias初始化
为1; 且可以应对DataParallel中LSTM的使用问题。



Loading…
Cancel
Save