本文内容是根据 莫烦Python 网站的视频整理的笔记,笔记中对代码的注释更加清晰明了, 同时根据所有笔记还整理了精简版的思维导图, 可在此专栏查看, 想观看视频可直接去他的网站, 源文件已经上传到主页中的资源一栏中,有需要的可以去看看,
我主页中的思维导图中内容大多从我的笔记中整理而来, 有兴趣的可以去 我的主页 了解更多计算机学科的精品思维导图整理
本文可以转载,但请注明来处,觉得整理的不错的小伙伴可以点赞关注支持一...
Torch.nn.Conv2d(in_channels,out_channels,kernel_size,stride=1,padding=0,dilation=1,groups=1,bias=True)
in_channels:输入维度
out_channels:输出维度
kernel_size:卷积核大小
stride:步长大小
padding:补0
dilation:kernel间距
代码真的好难啊,就算是照着抄也会错,真的是服了,大半天就只做了这一个事,还好的是最后都敲出来了。
源代码参考网址:https://github.com/aespresso/a_journey_into_math_of_ml/blob/master/04_transformer_tutorial_2nd_part/BERT_tutorial/models/bert_model.py
论文网址:
BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
我的代码:
# data: 20210404
# author: lmtfrom __future__...
译者:cangyunye作者: Nathan Inkawhich如果你正在阅读这篇文章,希望你能理解一些机器学习模型是多么有效。现在的研究正在不断推动ML模型变得更快、更准确和更高效。然而,在设计和训练模型中经常会忽视的是安全性和健壮性方面,特别是在面对欺骗模型的对手时。本教程将提高您对ML模型安全漏洞的认识,并将深入探讨对抗性机器学习这一热门话题。您可能会惊讶地发现,在图像中添加细微的干扰会导致模型性能的巨大差异。鉴于这是一个...
文章目录
BCELoss参考文档理解demo应用
crossentropyLoss、NLLLoss参考文档crossEntropyLossNLLLossBCELoss用于二分类问题,计算loss值,与sigmoid函数一起使用(就是逻辑回归的那个公式,线性外面套一个sigmoid函数)参考文档
pytorch-BCELoss
理解
看它的参数说明大概能知道:
参数
weight(张量*,*可选)–对每个批次元素的损失赋予的手动重新缩放重量。如果给定,则必须是大小为nbatch的张量。size_average(bool*,*可选)–...
索引
前言代码补充前言
老规矩~~ b站up主莫烦python的听课笔记代码
示例:代码很简单,就两层的卷积层+池化堆叠识别数字,用的MNIST数据集。这个网络结构很简单,如果想弄清楚原理的话,可以去看看7层的LeNet网络。
"""
View more, visit my tutorial page: https://mofanpy.com/tutorials/
My Youtube Channel: https://www.youtube.com/user/MorvanZhou
Dependencies:
torch: 0.4
torchvision
matplotlib
"""
# library
# standa...
项目场景:
Pytorch 框架中,计算深度神经网络的 FLOPS 和 参数量
解决方案:
方法一: 利用thop 1.安装thop
pip install thop2.计算
@hyefrom thop import profileflops, params = profile(net, (input, ))net: 需要计算的模型 input: 输入的样本
方法二: 利用torchsummaryX 1.安装torchsummaryX
pip install torchsummaryX2.计算
@hyefrom torchsummaryX import summarysummary(net, input)net: 需要计算的模型 input: 输入的样...
版权声明:本文为CSDN博主「Answerlzd」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/Answer3664/article/details/99460175
文章目录
(一)概述
(二)数据预处理
(三)构建网络
(四)选择优化器
(五)训练测试加保存模型
正文
(一)概述
1、CIFAR-10数据集包含10个类别的60000个32x32彩色图像,每个类别有6000张图像。有50000张训练图像和10000张测试图像。 2、数据集分为五个训练批次和一个测试批次,每个批次具有10000张图像。测试集包含从每个类别中1000张随机选择的图像。剩余的图像按照随机顺序构成5个批次的训练集,每个批次中各类图像的数量不...
1、计算F1-Score
对于二分类来说,假设batch size 大小为64的话,那么模型一个batch的输出应该是torch.size([64,2]),所以首先做的是得到这个二维矩阵的每一行的最大索引值,然后添加到一个列表中,同时把标签也添加到一个列表中,最后使用sklearn中计算F1的工具包进行计算,代码如下
import numpy as np
import sklearn.metrics import f1_score
prob_all = []
lable_all = []
for i, (data,label) in tqdm(train_data_loader):pr...
代码来源Pytorch Quick Tip: Calculate Mean and Standard Deviation of Data
import torch
import torch.utils.data.dataloader as dataloader
import torchvision.datasets as datasets
from torchvision import transformstrain_dataset = datasets.CIFAR10(root="dataset/", train=True, transform=transforms.ToTensor(), download=True)
train_loader = dataloader.DataLoader(dataset=train_dataset, batch_size=64, shuffl...
不间断更新。。。增减layer增加layer增加layer很方便,可以使用model.add_module(layer name, layer)。删减layer删减layer很少用的到,之所以我会有这么一个需求,是因为我需要使用vgg做迁移学习,而且需要修改最后的输出。而vgg由两个部分组成:features和classifier,这两个部分都是torch.nn.Sequential,所以不能单独对其中某一层做修改。而如果对整个Sequential做修改,那么这个模型的参数会被初始化,而我又需要保留这些参数,...
openpose pytorch 测试import cv2
import matplotlib.pyplot as plt
import copy
import numpy as np
import torchfrom src import model
from src import util
from src.body import Body
from src.hand import Handbody_estimation = Body(model/body_pose_model.pth)
hand_estimation = Hand(model/hand_pose_model.pth)print(f"Torch device: {torch.cuda.get_device_name()}")cap = cv2.VideoCapture(2)
cap.set(3, 640)
cap....
文章来自微信公众号【机器学习炼丹术】。我是炼丹兄,欢迎加我微信好友交流学习:cyx645016617。@目录1 背景2 深度可分离卷积2.2 一般卷积计算量2.2 深度可分离卷积计算量2.3 网络结构3 PyTorch实现
本来计划是想在今天讲EfficientNet PyTorch的,但是发现EfficientNet是依赖于SENet和MobileNet两个网络结构,所以本着本系列是给“小白”初学者学习的,所以这一课先讲解MobileNet,然后下一课讲解SENet,然后再下一课讲解Efficient...