读源码torch.nn.Module

def init(self):

定义了很多有序字典OrderedDict()
在创建网络时,我们要实现该方法,通过spuer方法将init里的表达式继承下来。
从python类的用法上讲,也可以采用baseClass.__init__()的方式,但是通常不这么用,这里每验证这么用会不会出问题,只是温习一下python的使用方法。

def forward(self, *input):

这个方法要被重写,上面的init方法叫实现。
该方法传入输入。

def forward(self, *input):
    raise NotImplementedError

采用这种方式达到不重写就会报对应的错。方法很好。

def register_buffer(self, name, tensor):

向模块添加持久缓冲区。

def register_buffer(self, name, tensor):
    if '_buffers' not in self.__dict__:
            raise AttributeError(
                "cannot assign buffer before Module.__init__() call")
        elif not isinstance(name, torch._six.string_classes):
            raise TypeError("buffer name should be a string. "
                            "Got {}".format(torch.typename(name)))
        elif '.' in name:
            raise KeyError("buffer name can't contain \".\"")
        elif name == '':
            raise KeyError("buffer name can't be empty string \"\"")
        elif hasattr(self, name) and name not in self._buffers:
            raise KeyError("attribute '{}' already exists".format(name))
        elif tensor is not None and not isinstance(tensor, torch.Tensor):
            raise TypeError("cannot assign '{}' object to buffer '{}' "
                            "(torch Tensor or None required)"
                            .format(torch.typename(tensor), name))
        else:
            self._buffers[name] = tensor

如果参数name类型不对会报相应的错。

def register_parameter(self, name, param):

向模块添加参数。
同样会做一些格式和存在与否的判断,进而报错,这是我应该学习的方式。两个参数分了三步去判断。

def add_module(self, name, module):

给当前模块添加一个子模块。
同时做一些isinstance hasattr == 的判断raise一些TypeError KeyError

def _apply(self, fn):

这是后续方法要经常调用的方法
pytorch的更新参数最底层的方法都是这个方法和def apply(self, fn)定义的。

def apply(self, fn):

def cuda(self, device=None):

将所有模型参数和缓冲区移至GPU。

def cuda(self, device=None):
    return self._apply(lambda t: t.cuda(device))

def cpu(self):

将所有模型参数和缓冲区移至CPU。

def cpu(self):
    return self._apply(lambda t: t.cpu())

def type(self, dst_type):

将所有参数和缓冲区强制转换为dst_type。

def type(self, dst_type):
    return self._apply(lambda t: t.type(dst_type))

def float(self):

将所有浮点参数和缓冲区强制转换为float数据类型。

def float(self):
    return self._apply(lambda t: t.float() if t.is_floating_point() else t)

def double(self):

将所有浮点参数和缓冲区强制转换为“ double”数据类型。

def half(self):

将所有浮点参数和缓冲区强制转换为“ half”数据类型。
Half是用16位表示浮点数的一种数据类型,在IEEE 754中也有规定,这种数据类型在深度学习系统中的应用比较广泛。但是在当前主流cpu上,不支持half类型数据的计算和输出,所以需要half和float两个数据类型之间的转换。
IEEE754-2008包含一种“半精度”格式,只有16位宽。故它又被称之为binary16,这种类型的浮点数只适合用于存储那些对精度要求不高的数字,不适合用于进行计算。与单精度浮点数相比,它的优点是只需要一半的存储空间和带宽,但是缺点是精度较低。

def to(self, *args, **kwargs):

移动或强制转换参数和缓冲区。

Example::
            >>> linear = nn.Linear(2, 2)
            >>> linear.weight
            Parameter containing:
            tensor([[ 0.1913, -0.3420],
                    [-0.5113, -0.2325]])
            >>> linear.to(torch.double)
            Linear(in_features=2, out_features=2, bias=True)
            >>> linear.weight
            Parameter containing:
            tensor([[ 0.1913, -0.3420],
                    [-0.5113, -0.2325]], dtype=torch.float64)
            >>> gpu1 = torch.device("cuda:1")
            >>> linear.to(gpu1, dtype=torch.half, non_blocking=True)
            Linear(in_features=2, out_features=2, bias=True)
            >>> linear.weight
            Parameter containing:
            tensor([[ 0.1914, -0.3420],
                    [-0.5112, -0.2324]], dtype=torch.float16, device='cuda:1')
            >>> cpu = torch.device("cpu")
            >>> linear.to(cpu)
            Linear(in_features=2, out_features=2, bias=True)
            >>> linear.weight
            Parameter containing:
            tensor([[ 0.1914, -0.3420],
                    [-0.5112, -0.2324]], dtype=torch.float16)

def register_backward_hook(self, hook):

在模块上注册反向挂钩。
每当计算相对于模块输入的梯度时,都会调用该挂钩。

def register_forward_pre_hook(self, hook):

在模块上注册前向预钩。
每次调用:func:forward之前,都会调用该钩子。

def register_forward_hook(self, hook):

在模块上注册一个前向挂钩。
每当:func:forward计算出输出后,该钩子就会被调用。

def _slow_forward(self, *input, **kwargs):

没有加速的前向函数.

def _call_(self, *input, **kwargs):

给个参数就执行的前向调用?

def _setstate_(self, state):

快速设置所有字典状态

def _getattr_(self, name):

获取属性

def _setattr_(self, name, value):

设置属性

def _delattr_(self, name):

删除属性

def _register_state_dict_hook(self, hook):

这个钩子可以就地修改“ state_dict”或返回一个新的。

def_save_to_state_dict(self, destination, prefix, keep_vars):

将模块状态保存到“destination”字典中,其中包含模块的状态,但不包含其后代。

def state_dict(self, destination=None, prefix='', keep_vars=False):

返回包含模块整个状态的字典。

def _register_load_state_dict_pre_hook(self, hook):

这些钩子将被以下参数进行调用:state_dict,prefix,local_metadata,strict,strict,missing_keys,unexpected_keys,
error_msgs,在将state_dict加载到self之前。 这些参数与_load_from_state_dict的参数完全相同。

def _load_from_state_dict(self, state_dict, prefix, local_metadata, strict, missing_keys, unexpected_keys, error_msgs):

从:attr:'state_dict'复制参数和缓冲区。

def load_state_dict(self, state_dict, strict=True):

将参数和缓冲区从state_dict复制到此模块及其后代中。

def _named_members(self, get_members_fn, prefix='', recurse=True):

产生各种名称+模块成员的辅助方法。

def parameters(self, recurse=True):

返回模块参数上的迭代器。

def named_parameters(self, prefix='', recurse=True):

返回包含模块参数的迭代器,yield返回参数名称和参数本身。

def buffers(self, recurse=True):

返回模块缓冲的迭代器。

def named_buffers(self, prefix='', recurse=True):

返回模块缓冲的迭代器,包括缓冲的名字和缓冲本身。

def children(self):

返回直接子模块构成的迭代器。

def children(self):
    for name, module in self.named_children():
        yield module

def named_children(self):

返回直接子模块的迭代器,同时yield返回模块的名称和模块本身。

def modules(self):

返回网络中所有模块的迭代器。

def named_modules(self, memo=None, prefix=''):

同时返回名字

def train(self, mode=True):

常用的,如model.train()
作用是使模块处于训练状态。
mode=True training mode
mode=True evaluation mode
代码很简单

def train(self, mode=True):
    self.training = mode #使self.training=True
    for module in self.children(): 把children以及children的children也设置为True,所以这里使用的是调用自己,进而构成循环
        module.train(mode)
    return self

return self是一种链式调用。

class Foo(object):

  def __init__(self):
    self.myattr = 0

  def bar(self):
    self.myattr += 1
    return self

f = Foo()
f.bar().bar().bar()
print(f.myattr)
输出结果为3.
把bar()方法改为返回return None, 则上述代码会出错。

def eval(self):

def eval(self):
    return self.train(False)

def requires_grad_(self, requires_grad=True):

这个也是很重要很常用的函数
Change if autograd should record operations
on parameters in this module.
控制自动求导是否记录求导结果,它是单个模块控制的。

def requires_grad_(self, requires_grad=True):

    for p in self.parameters():
        p.requires_grad_(requires_grad) #也是递归的调用,也是return self
    return self

def zero_grad(self):

将所有模型参数的梯度设置为零。

def zero_grad(self):
    r"""Sets gradients of all model parameters to zero."""
    for p in self.parameters():#遍历所以参数
        if p.grad is not None:#如果存在
            p.grad.detach_()
            p.grad.zero_()#使用其他函数设置为0

此外,

def parameters(self, recurse=True):
    for name, param in self.named_parameters(recurse=recurse):
        yield param

所以self.parameters()是parameters方法产生的一个递归。
最终用到的数据来自module._parameters.items()

def share_memory(self):

好像是共享内存

def _get_name(self):

def _get_name(self):
    return self.__class__.__name__

返回本类的名字

def extra_repr(self):

设置模块的额外表示形式

def extra_repr(self):
    return ''

默认为空字符串,需要重写该方法以达到额外命名

def repr(self):

一个表示形式,用到上面的额外命名,分有没有额外名情况去组织结果。

def dir(self):

老博客地址:https://www.jianshu.com/u/1c73a3a8ae2d
新博客地址:https://inspiring26.github.io/

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,921评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 87,635评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,393评论 0 338
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,836评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,833评论 5 368
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,685评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,043评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,694评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 42,671评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,670评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,779评论 1 332
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,424评论 4 321
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,027评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,984评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,214评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,108评论 2 351
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,517评论 2 343