电商网站及企业微信订烟,怎么做电商新手入门,衡水做网站建设,建设网站目的是什么1、人工智能概念的一般描述 人工智能是那些与人的思维相关的活动#xff0c;诸如决策、问题求解和学习等的自动化#xff1b; 人工智能是一种计算机能够思维#xff0c;使机器具有智力的激动人心的新尝试#xff1b; 人工智能是研究如何让计算机做现阶段只有人才能做得好的…1、人工智能概念的一般描述 人工智能是那些与人的思维相关的活动诸如决策、问题求解和学习等的自动化 人工智能是一种计算机能够思维使机器具有智力的激动人心的新尝试 人工智能是研究如何让计算机做现阶段只有人才能做得好的事情 人工智能是那些使知觉、推理和行为成为可能的计算的研究 广义地讲人工智能是关于人造物的智能行为而智能行为包括知觉、推理、学习、交流和在复杂环境中的行为。 人工智能定义分为4类像人一样思考的系统、像人一样行动的系统、理性地思考的系统、理性地行动的系统。 2、人工智能的研究途径与方法 心理模拟符号推演 从人脑的宏观心理层面入手以智能行为的心理模型为依据将问题或知识表示成某种逻辑网络采用符号推演的方法模拟人脑的逻辑思维过程实现人工智能。 生理模拟神经计算 从人脑的生理层面即微观结构和工作机理入手以智能行为的生理模型为依据采用数值计算的方法模拟脑神经网络的工作过程实现人工智能。 行为模拟控制进化 用模拟人和动物在与环境的交互过程中的智能活动和行为特性如反应、适应、学习、寻优等来研究和实现人工智能。 着眼数据统计建模 着眼于事物或问题的外部表现和关系搜集、采集相关信息并做成样本数据然后用统计学、概率论和其他数学理论和方法建模并用适当的算法进行计算推测事物的内在模式或规律来实现人工智能。 3、人工智能的分支领域与研究方向 人工智能可分为搜索与求解、知识与推理、学习与发现等十大分支领域。 ❖ 从研究途径和智能层次来看人工智能可分为符号智能、计算智能、统计智能和交互智能等四大分支领域。 ❖ 从所模拟的脑智能或脑功能来看AI中有机器学习、机器感知、机器联想、机器推理、机器行为等分支领域。 ❖ 从系统角度看AI中有智能计算机系统和智能应用系统两大类。 ❖ 从应用角度看人工智能中有难题求解等数十个分支领域和研究方向。 ❖ 从信息处理角度看人工智能则可分为确定-确切性信息处理、不确定性信息处理和不确切性信息处理三大领域。 ❖ 从基础理论看与人工智能密不可分的还有数学和数据科学。 4、卷积计算与图像边缘检测 卷积神经网络是一类包含卷积计算且具有深度结构的前馈神经网络是深度学习的代表算法之一。卷积神经网络具有表征学习能力。 计算方式见笔记。 微分推导设计的缘检测算子通过卷积计算可以提取图像的边缘特征那么我们也可以通过其他的算子卷积核、模板提取图像的特征如纹理特征等这些算子可以通过学习的方式来得到。 优点 相对SVM或随机森林可以防止丢失空间信息等其他信息。 相对全连接神经网络可以减少参数。 通过参数共享在每一层只需要较少的参数可以学到有效特征。 4、ResNet残差网络 ResNet的出现使得网络的深度可以轻松达到100层以上。 特点 核心单元简单堆叠。跳连结构解决网络梯度消失问题。Average Pooling层代替fc层。 BN层加快网络训练速度和收敛时的稳定性。加大网络深度提高模型的特征抽取能力。 5、DialatedNet、Deformable Convolution DialatedNet不牺牲特征图尺寸的情况下增加感受野。获取了多尺度的上下文信息。减少的计算量。 Deformable Convolution增加了可变形卷积对物体的形变和尺度建模能力比较强。 6、全卷积神经网络 起源使深度卷积神经网络可以提取高层语义特征的同时保持特征映射的分辨率与原始图像一致。 ◆原理利用反卷积层对最高层的低分辨率特征映射进行上采样处理使得该特征映射的尺寸与原始图像的相同然后用步长为1x1的卷积核对该特征映射进行像素分类从而得到图像语义分割结果; ◆优势端对端输出、高效率 ◆劣势小目标分割效果差、分割结果边界粗糙、过分割和欠分割问题突出 ◆FCN-32s直接将 pool5的输出上采样到原图大小做预测然而预测的结果非常粗糙 ◆FCN-16s将pool5上采样 2 倍和pool 4 特征进行相加然后上采样到原图大小结 果会比32s的精细一些 ◆FCN-8s将 pool5上采样2倍和 pool4 相加后的特征先上采样 2 倍然后和pool3 相加得到FCN-8s特征 7、转置卷积 1在输入特征图元素间填充s-1行和列0 2在输入特征图四周填充k-p-1行和列0 3将卷积核参数上下左右翻转 4做正常卷积运算填充0步距1 优点可学习理论上模型可以通过学习获取最适合当前数据集的上采样方式。 缺点存在棋盘效应分割边界为锯齿状。 8、SegNet SegNet编码部分通过最大池化逐阶段缩小输入图像的尺寸和降低参数量并且记录图像中的池化索引位置SegNet解码部分通过上采样逐阶段恢复图像信息最后通过Softmax 分类器输出语义分割结果。 使用记录maxpool层最大响应特征位置的tensor来进行上采样避免了FCN中学习上采样带来的消耗而后再使用可训练的卷积层使稀疏的feature map密集这将避免上层保存feature map产生的额外空间消耗。 9、DeepLab V1 优点DeepLab v1 结合了深度卷积神经网络DCNNs与概率图模型 • 采用FCN思想修改VGG16网络得到 coarse score map并插值到原图像尺寸 • 使用Atrous convolution得到更dense且感受野不变的feature map概率图模型 • 借用fully connected CRF对从DCNNs得到的分割结果进行细节上的refine 10、LSTM输入门、输出门、遗忘门、细胞更新 LSTM的第一步是决定我们要从细胞状态中丢弃什么信息。该决定由被称为“忘记门”的Sigmoid层实现。 下一步是决定要在细胞状态中存储什么信息。分为两步。首先称为“输入门层”的Sigmoid层决定了将更新哪些值。接下来一个tanh层创建候选向量Ct,该向量将会被加到细胞的状态中。更新上一个状态值Ct−1将其更新为Ct。最后我们需要决定我们要输出什么。此输出将基于我们的细胞状态但将是一个过滤版本。首先我们运行一个sigmoid层它决定了我们要输出的细胞状态的哪些部分。然后我们将单元格状态通过tanh将值规范化到-1和1之间并将其乘以Sigmoid门的输出至此我们只输出了我们决定的那些部分。 11、GRU门阈控制单元 是循环神经网络的一种和LSTM一样也是为了解决长期记忆和反向传播中的梯度等问题而提出来的。相比LSTM使用GRU能够达到相当的效果并且相比之下更容易进行训练能够很大程度上提高训练效率因此很多时候会更倾向于使用GRU。 12、注意力原理Attention值的计算Q,KV、优点、 参数少相比于 CNN、RNN 其复杂度更小参数也更少。所以对算力的要求也就更小。 速度快Attention 解决了 RNN及其变体模型 不能并行计算的问题。Attention机制每一步 计算不依赖于上一步的计算结果因此可以和CNN一样并行处理。 效果好在Attention 机制引入之前有一个问题大家一直很苦恼长距离的信息会被弱 化就好像记忆能力弱的人记不住过去的事情是一样的。 13、自注意力机制(多头注意力机制、Self-Attention的计算公式和优势 Attention(Q,K,V)softmax(QKT/√)V 防止softmax()中的分布会趋于陡峭使训练过程中梯度值保持稳定。 1.参数少相比于CNN、RNN其复杂度更小参数也更少。所以对算力的要求也就更小。2.速度快Attention解决了RNN及其变体模型不能并行计算的问题。Attention机制每一步计算不依赖于上一步的计算结果因此可以和CNN一样并行处理。 3.效果好在Attention机制引入之前有一个问题大家一直很苦恼长距离的信息会被弱化就好像记忆能力弱的人记不住过去的事情是一样的。 14、Transformer模型位置编码 第二个公式应该是2i1 15、Swin Transformer 使用了类似卷积神经网络中的层次化构建方法比如部分特征图尺寸中有对图像下采样4倍的8倍的以及16倍的这样的backbone有助于在此基础上构建目标检测实例分割等任务。而在之前的VisionTransformer中是一开始就直接下采样16倍后面的特征图也是维持这个下采样率不变。在SwinTransformer中使用了WindowsMulti-HeadSelf-Attention(W-MSA)的概念比如在下图的4倍下采样和8倍下采样中将特征图划分成了多个不相交的区域并且Multi-HeadSelf-Attention只在每个窗口内进行。相对于VisionTransformer中直接对整个特征图进行MultiHeadSelf-Attention这样做的目的是能够减少计算量的尤其是在浅层特征图很大的时候。这样做虽然减少了计算量但也会隔绝不同窗口之间的信息传递。 16、GAN 在训练过程中生成网络的目标就是尽量生成真实的图片去欺骗判别网络D。而网络D的目标就是尽量把网络G生成的图片和真实的图片分别开来。这样G和D构成了一个动态的“博弈过程”。 训练过程 1、随机初始化生成器和判别器 2、固定住生成器参数, 更新判别器的参数 3、固定判别器的参数, 更新生成器的参数 4、重复2、3直到收敛 缺点生成的图像是随机的不可预测的无法控制网络输出特定的图片生成目标不明确可控性不强。