Python实现SMA黏菌优化算法优化循环神经网络回归模型(LSTM回归算法)项目实战 2024-05-06 lstm, rnn, 深度学习, 人工智能, 回归 157人 已看 Python实现SMA黏菌优化算法优化循环神经网络回归模型(LSTM回归算法)项目实战
深度学习笔记_10YOLOv8系列自定义数据集实验 2024-05-08 yolo, 深度学习, 人工智能, windows 90人 已看 在ultralytics/models/v8/目录下是模型的配置文件,随着架构的增大,训练时间也是逐渐增大,只用修改一个参数,把nc改成自己的类别数,需要取整。F1得分是精确度和召回率的调和平均值,曲线的峰值表示给定置信度阈值下精确度和召回率的最佳平衡点。与普通混淆矩阵类似,但这里的值显示的是每个类别的预测正确比例。这些图表和数据文件展示了模型在训练过程中的性能变化,包括损失函数的变化和评估指标(如精确度、召回率和mAP)的变化。边界框宽度:这也是一个归一化后的值,代表对象边界框的宽度。
Colab/PyTorch - Getting Started with PyTorch 2024-05-06 python, 机器学习, 深度学习, pytorch, 人工智能 68人 已看 后续,等完成了这个小目标后,再做总结整理。
动手学深度学习4.1 多层感知机实现-笔记&练习(PyTorch) 2024-05-08 python, 笔记, 深度学习, pytorch, 人工智能 75人 已看 李沐老师《动手学深度学习(PyTorch版)》4.1 多层感知机实现-笔记&练习详解
unsqueeze() 方法与squeeze() 方法 2024-05-07 python, 深度学习, 人工智能, pytorch, 开发语言 61人 已看 unsqueeze() 方法在 PyTorch 中用于在指定的维度位置插入一个维度大小为 1 的新维度。tips:()内指定维度位置,‘0’表示第一个维度位置,以此类推‘1’ ‘2’ ‘3’.......
纹理映射技术在AI去衣应用中的关键作用 2024-05-07 机器学习, 计算机视觉, 深度学习, 人工智能, 神经网络 218人 已看 纹理映射技术在AI去衣应用中发挥着至关重要的作用。然而,随着技术的发展,我们必须警惕其潜在的负面影响,并在技术创新的同时,坚守伦理和法律的底线。未来的研究应当更加注重技术的合理应用,确保AI去衣技术的发展能够造福人类社会,而不是成为滥用的工具。AI去衣,作为一种颇具争议的技术应用,指的是利用深度学习算法自动移除或替换图片中的衣物。纹理映射是计算机图形学中的一种技术,它允许二维图像(纹理)被映射到三维模型的表面。在AI去衣的应用中,纹理映射用于将服装的纹理细节转移到裸露的皮肤表面,保持皮肤质感的自然和真实。
Fluent模拟冷却塔换热过程:技术详解与参数设置 2024-05-08 算法, 机器学习, 深度学习, 人工智能 263人 已看 在工业和能源领域,冷却塔是一种重要的热交换设备,用于将工业废水或循环冷却水的热量散发到大气中。为了优化冷却塔的设计和运行效率,我们常常需要借助计算流体动力学(CFD)工具进行模拟分析。在本文中,我们将详细介绍如何使用ANSYS Fluent软件来模拟冷却塔的换热过程,并讨论相关的参数设置和数据解读。
yaml配置文件的在深度学习中的简单应用 2024-05-08 深度学习, 人工智能 54人 已看 小伙伴们再阅读深度学习模型的代码的时候,经常会遇到yaml格式的配置文件。用这个配置文件是因为我们在训练模型的时候会涉及很多的参数,如果这些参数东一个,西一个,我们调起来的时候就会很不方便,所以用yaml脚本将他们集中到一起,类似的配置文件还有,json等。
经典分类网络LeNet5项目:实现手写数字识别项目 2024-05-08 机器学习, 深度学习, 人工智能, 神经网络 91人 已看 使用经典分类网络LeNet5实现手写数字识别项目,对比3层卷积+2层全连接、2层卷积+3层全连接
CNN卷积神经网络,TensorFlow面试题 2024-05-07 python, tensorflow, 机器学习, 深度学习, 人工智能 64人 已看 TensorFlow是一个基于Python的库, 用于创建机器学习应用程序。它是执行复杂数学的低级工具包。它为用户提供了可定制性选项, 以构建实验性学习体系结构。它还可以帮助用户与他们合作, 并将他们转变为正在运行的软件。它最初由Google Brain团队的研究人员和工程师创建, 并于2015年成为开源。TensorFlow由两个词Tensor和Flow组成;张量被称为多维数组的数据表示流意味着对张量执行的一系列操作。
Tensorflow-相关函数 2024-05-07 python, tensorflow, 机器学习, 深度学习, 人工智能 63人 已看 值初始的英文常量或是随机值。还可以通过运行其初始化函数op来初始化变量,从保存文件还原变量,或简单的运行assign向变量分配值的Op。注意,tensorflow中的乘法和R语言中的乘法是不一样的,例如,在R中,矩阵nxp乘一个n维向量,会在每一列上乘上这个向量,但是在python中,矩阵nxp乘一个p维向量,是在矩阵的每行上承这个p维向量。有时候会需要用力一个变量的初始化值给当前变化初始化,由于tf.global_variables_initializer()初始化所有变了,所以需要注意这个方法的使用。
Matlab图像中加入脉冲噪声、高斯噪声并用均值滤波、中值滤波进行滤波处理 2024-05-07 计算机视觉, 图像处理, 深度学习, 人工智能, opencv 74人 已看 均值滤波(Mean Filtering)原理:均值滤波是一种线性滤波技术,通过对图像中每个像素的邻域内的像素值求平均,来计算该像素的新值。效果:这种滤波器可以有效地去除图像中的随机噪声,但缺点是它也会使图像边缘模糊,因为它不区分边缘和噪声,统一进行平均处理。应用:适用于去除随机噪声,尤其是高斯噪声,但不适合处理具有锐利边缘或细节要求较高的图像。中值滤波(Median Filtering)原理:中值滤波是一种非线性滤波技术,它通过将图像中每个像素的邻域内的像素值进行排序,并取中间值作为该像素的新值。
超越视觉极限:深度学习图像超分辨率算法清单【第三部分】 2024-05-07 算法, 深度学习, 人工智能 58人 已看 自从深度学习技术被引入到图像超分辨率的研究中,它就彻底改变了我们提升图像质量的方式。本文将带您穿越时间的长河,从2014年的SRCNN算法,到2024年的最新进展,每一次技术的飞跃都为我们打开了新的可能性。我们将总结2014年到2024年出现的各个超分算法的关键技术和创新点。无论您是人工智能的专业人士,还是对前沿科技保持好奇的爱好者,这篇文章都将为您展示深度学习如何在不断超越的视觉极限中扮演关键角色。
第二篇【传奇开心果系列】Python深度学习库技术点案例示例:深度解读深度学习在语音助手方面的应用 2024-05-02 深度学习, 人工智能 59人 已看 深度学习在语音助手方面的应用可以提高语音识别的准确性、语义理解的精准度和对话生成的自然度,从而使得语音助手能够更好地满足用户的需求。深度学习在语音助手方面的应用不仅可以提高语音交互的准确性和自然度,还可以实现个性化服务、多模态交互和情感识别等功能,为用户提供更加智能和便捷的语音助手体验。深度学习模型可以通过大量的语音数据进行训练,从而提高语音识别的准确性。目前,深度学习模型如卷积神经网络(CNN)和循环神经网络(RNN)等已经在语音识别领域取得了很大的成功,使得语音助手能够更好地理解用户的语音指令。
深度学习训练八股 2024-05-03 python, 机器学习, 深度学习, 人工智能, pytorch 80人 已看 一、模型中的函数的定义1.torchmetrics.AUROC(1).binary>>> from torch import tensor>>> preds = tensor([0.13, 0.26, 0.08, 0.19, 0.34])>>> target = tensor([0, 0, 1, 1, 1])>>> auroc = AUROC(task="binary")>>> auroc(preds,
生成对抗网络(GAN)入门 2024-05-03 生成对抗网络, 机器学习, 深度学习, 人工智能, 神经网络 88人 已看 判别器的任务是尝试区分接收到的数据是真实数据还是由生成网络生成的数据。生成器的任务是从随机噪声中生成与真实数据相似的合成样本,而判别器则负责辨别给定的样本是真实数据还是生成器产生的人工样本。在生成对抗网络(GANs)中,生成器(G)是一个关键组件,其任务是利用随机噪声(通常表示为z)作为输入,并通过不断的学习和拟合过程生成一个与真实样本在尺寸和分布上相似的伪造样本G(z)。GAN的原理在于通过这种对抗性训练,生成器学习生成逼真的数据,而判别器学习更好地区分真实和生成的数据。
G1 - 生成对抗网络(GAN) 2024-05-03 生成对抗网络, 机器学习, 深度学习, 人工智能, 神经网络 70人 已看 GAN是一个非常有趣的网络,它使用了一个非常简直的二分类器来做判别器,然后使用一个输入与输出相同的模型来做生成器。生成器会学习到给定的数据中的分布情况,从而模拟出与给定数据同样的分布,作为生成器的输出。经过50个轮次的运行,图像竟然真的可以开始输出一些和原始图像非常相似的结果,让我感觉非常的不可思议。从计算机其它领域获得一些概念,然后融入到人工智能中,有时候会有非常不错的结果。