当前位置: 首页 > news >正文

怎样做招嫖网站福州网站排名推广

怎样做招嫖网站,福州网站排名推广,美国服务器网址,hbuilder可以做网站嘛Python基础知识 推荐视频:黑马程序员python教程,8天python从入门到精通,学python看这套就够了_哔哩哔哩_bilibili 工具和资源:PyTorch、Zotero、谷歌学术、Github、B站、ChatGPT等。 深度学习基本知识 张量维度表示&#xff1a…

Python基础知识

  • 推荐视频:黑马程序员python教程,8天python从入门到精通,学python看这套就够了_哔哩哔哩_bilibili
  • 工具和资源:PyTorch、Zotero、谷歌学术、Github、B站、ChatGPT等。

深度学习基本知识

张量维度表示

  • (N, C, H, W):表示数据张量的形状,其中N是批量大小,C是通道数(如RGB图像中的3个通道),H是高度,W是宽度。
  • (h, w, c):表示图像数据的形状,h是高度,w是宽度,c是通道数。
  • (B, N, C):表示批量处理的数据,其中B是批量大小,N是样本数量,C是通道数。

张量维度转换

  • 如何在3D和4D张量之间进行转换。通过rearrange函数可以实现这种转换。
  • 例如,将形状为(B, H*W, C)的3D张量转换为(B, C, H, W)的4D张量时,需要提供高度H和宽度W的信息。

torch.shape和torch.size()

  • output.shape返回张量的形状元组。
  • output.size()返回一个torch.Size对象,可以用于类似的操作。

np.reshape和torch.reshape

  • np.reshape用于改变NumPy数组的形状。
  • torch.reshape用于改变PyTorch张量的形状,类似于NumPy的用法。

torch.rand()和torch.randn()的区别

  • torch.rand()生成从均匀分布[0, 1)中抽取的随机数。
  • torch.randn()生成从标准正态分布中抽取的随机数。

模型训练与评估

训练模型

  • 训练过程中详细的步骤,如数据预处理、模型定义、损失函数计算、反向传播和参数更新。
  • 损失函数:以交叉熵损失为例,如何计算模型的损失。
  • 反向传播:通过链式法则计算损失对模型参数的梯度,并更新参数以最小化损失。

评估指标

  • TP(True Positive):正确预测为正类的样本数。
  • FP(False Positive):错误预测为正类的样本数。
  • TN(True Negative):正确预测为负类的样本数。
  • FN(False Negative):错误预测为负类的样本数。
  • Recall(召回率):TP / (TP + FN)。
  • IoU(Intersection over Union):用于目标检测,表示预测框与实际框的交集与并集的比例。
  • Accuracy(准确率):正确预测样本数 / 总样本数。
  • F1 Score:精确率和召回率的调和平均数。

训练可视化

  • 使用TensorBoardX记录和可视化训练过程中的损失、准确率等指标。

数据预处理

reshape()、resize()和squeeze()

  • reshape():用于改变张量的形状。
  • resize():用于调整张量的大小。
  • squeeze():用于删除张量中大小为1的维度。

unsqueeze()

  • 用于在指定位置增加一个新的维度。例如x.unsqueeze(0)会在第0维前增加一个新维度。

transforms.Compose()

  • 用于将多个数据变换操作组合在一起。例如,将图像缩放、裁剪、转换为张量等操作组合。

模型结构和模块缝合

U-Net、ResNet、ResNeXt、ResNeSt

  • 这些网络结构的组成部分及其在实际中的应用。
  • U-Net:用于图像分割,包含卷积层、上采样和跳跃连接。
  • ResNet:引入了残差块,以解决深层网络的梯度消失问题。
  • ResNeXt和ResNeSt:在ResNet的基础上进一步改进,引入了更多的并行卷积路径和注意力机制。

Transformer

  • 编码器(Encoder)解码器(Decoder)的结构及其工作原理。
  • 注意力机制:包括自注意力和多头注意力。
  • Vision Transformer (ViT):将Transformer应用于计算机视觉任务的结构和示例。

其他实用技巧

优化器

  • 不同优化器的使用,如SGD和Adam。
  • SGD(随机梯度下降):适用于简单的优化任务。
  • Adam(自适应矩估计):结合了动量和自适应学习率的优势,适用于更复杂的优化任务。

超参数调整

  • 学习率迭代次数批量大小等参数的设置和调整方法。
  • 正则化参数:如L1和L2正则化,用于防止模型过拟合。

设备选择

  • 使用torch.device选择在GPU或CPU上执行操作,通过torch.cuda.is_available()检查CUDA是否可用。

http://www.hkea.cn/news/605422/

相关文章:

  • 企业名称的英文做网站名seo是怎么优化推广的
  • 手机在线建站西安seo服务公司
  • 网站开发有前途吗我也要投放广告
  • 备案 网站名称怎么写crm软件
  • 扁平式网站模板b2b网站推广优化
  • 做外贸网站网络营销咨询服务
  • 江门网站建设方案报价淘宝seo优化怎么做
  • 盘龙城做网站推广网站推广
  • 如何做电子书网站域名站长工具
  • 物联网平台有哪些排名优化外包公司
  • 秦皇岛汽车网站制作数字营销工具
  • 培训教育的网站怎么做东莞做网站的联系电话
  • 云南做网站的公司外贸谷歌优化
  • 网页设计学徒培训可试学巢湖seo推广
  • 让顾客心动的句子seo模拟点击软件源码
  • 设计类专业包括哪些kj6699的seo综合查询
  • 手机网站制作哪家好查关键词
  • 米拓企业网站管理系统电商培训机构排名前十
  • 做效果图有哪些网站seo点击排名
  • 网络营销推广网站收录seo推广排名平台有哪些
  • 产品经理如何看待网站开发广州软件系统开发seo推广
  • wordpress 忘记管理员如何做网站seo
  • app和网站哪个有优势淘宝关键词排名
  • wordpress该域名宁波网站seo公司
  • 建购物网站怎么建呀简单的网站建设
  • 江苏省建设教育协会网站首页百度知道合伙人答题兼职入口
  • 做优化的网站平台搭建
  • 做网站需要多久网络推广是什么专业
  • 厦门加盟网站建设线上推广营销
  • 定制网站案例seo搜索引擎优化薪酬