sklearn的make_blobs函数 2024-05-08 python, 机器学习, 人工智能, sklearn, 开发语言 22人 已看 make_blobs是一个用于生成随机数据点的实用函数,
白话机器3:PCA与SVM详细数学原理 2024-05-08 支持向量机, 算法, 机器学习, 人工智能, 数据挖掘 15人 已看 首先,需要对原始数据进行标准化处理,使得每个特征的均值为0,方差为1。假设有一个的数据矩阵X,其中每一列是一个样本,每一行是一个特征。标准化公式如下:其中,是原始数据矩阵X中的元素,是第j个特征的均值,是第j个特征的标准差,是标准化后的数据。
【自动驾驶|毫米波雷达】逻辑化讲清快时间与慢时间傅里叶变换 2024-05-05 自动驾驶, 算法, 机器学习, 人工智能 17人 已看 实习过程中发现在进行雷达知识交流时,大部分同事都会用英文简称代替中文的一些称呼,比如Chirp、FFT等等。起初我觉得是因为很多英伟达、TI芯片的开发教程都是英文的,所以看得多了大家都习惯这样称呼,后来在和指导我的前辈交流时发现是因为国内对于一个步骤都有很多称呼,比如说我们接下来讲的,但他们的英文专有名称只有一个,分别是和。用英文称呼的原因更是为了精确性,也不用让大家记那么多名词。同时前辈也告诫我在学习时候不要怕麻烦,要把每一个缩写的全程都要标注好记忆好,才能对于系统更加熟悉。图中可以发现。
纹理映射技术在AI去衣应用中的关键作用 2024-05-07 机器学习, 计算机视觉, 深度学习, 人工智能, 神经网络 24人 已看 纹理映射技术在AI去衣应用中发挥着至关重要的作用。然而,随着技术的发展,我们必须警惕其潜在的负面影响,并在技术创新的同时,坚守伦理和法律的底线。未来的研究应当更加注重技术的合理应用,确保AI去衣技术的发展能够造福人类社会,而不是成为滥用的工具。AI去衣,作为一种颇具争议的技术应用,指的是利用深度学习算法自动移除或替换图片中的衣物。纹理映射是计算机图形学中的一种技术,它允许二维图像(纹理)被映射到三维模型的表面。在AI去衣的应用中,纹理映射用于将服装的纹理细节转移到裸露的皮肤表面,保持皮肤质感的自然和真实。
Fluent模拟冷却塔换热过程:技术详解与参数设置 2024-05-08 算法, 机器学习, 深度学习, 人工智能 56人 已看 在工业和能源领域,冷却塔是一种重要的热交换设备,用于将工业废水或循环冷却水的热量散发到大气中。为了优化冷却塔的设计和运行效率,我们常常需要借助计算流体动力学(CFD)工具进行模拟分析。在本文中,我们将详细介绍如何使用ANSYS Fluent软件来模拟冷却塔的换热过程,并讨论相关的参数设置和数据解读。
经典分类网络LeNet5项目:实现手写数字识别项目 2024-05-08 机器学习, 深度学习, 人工智能, 神经网络 21人 已看 使用经典分类网络LeNet5实现手写数字识别项目,对比3层卷积+2层全连接、2层卷积+3层全连接
【自动驾驶|毫米波雷达】逻辑化讲解测角全流程 2024-05-07 自动驾驶, 机器学习, 人工智能 22人 已看 其中,3D-FFT(三维快速傅里叶变换)和DBF(数字波束形成技术)做DOA估计是最简单且运算复杂度最低的方法,但是这两方法并不能实现超分辨,其角分辨率受限于阵列的孔径,MUSIC算法是实现超分辨的一种算法。(目标所处方向的回波与导向矢量相干叠加,这些方向的能量会得到增强,而噪声是非相干的,能量得到增强的方向,对应极大值的位置,也即信号的方向)由于阵列响应在不同方向上是不同的,导向矢量与信源的方向是相互关联的,这种关联的独特性依赖于。为初始发波频率,Δd为相邻接收天线的距离差,Δτ为时间差,λ为波长。
卡尔曼滤波实战 2024-05-08 算法, python, 机器学习, numpy, 开发语言 16人 已看 满足两个特性:叠加性和齐次性假如有两个输入,最后得到一个输出等价于,总输出是y,由另外两个输出合起来,两个输出对应的输入是x1和x2那么从方程理解。
scikit-learn多因子线性回归预测房价 2024-05-08 python, 机器学习, scikit-learn, 人工智能 24人 已看 【代码】scikit-learn多因子线性回归预测房价。
CNN卷积神经网络,TensorFlow面试题 2024-05-07 python, tensorflow, 机器学习, 深度学习, 人工智能 19人 已看 TensorFlow是一个基于Python的库, 用于创建机器学习应用程序。它是执行复杂数学的低级工具包。它为用户提供了可定制性选项, 以构建实验性学习体系结构。它还可以帮助用户与他们合作, 并将他们转变为正在运行的软件。它最初由Google Brain团队的研究人员和工程师创建, 并于2015年成为开源。TensorFlow由两个词Tensor和Flow组成;张量被称为多维数组的数据表示流意味着对张量执行的一系列操作。
Tensorflow-相关函数 2024-05-07 python, tensorflow, 机器学习, 深度学习, 人工智能 19人 已看 值初始的英文常量或是随机值。还可以通过运行其初始化函数op来初始化变量,从保存文件还原变量,或简单的运行assign向变量分配值的Op。注意,tensorflow中的乘法和R语言中的乘法是不一样的,例如,在R中,矩阵nxp乘一个n维向量,会在每一列上乘上这个向量,但是在python中,矩阵nxp乘一个p维向量,是在矩阵的每行上承这个p维向量。有时候会需要用力一个变量的初始化值给当前变化初始化,由于tf.global_variables_initializer()初始化所有变了,所以需要注意这个方法的使用。
大语言模型中的第一性原理:Scaling laws 2024-05-04 语言模型, 机器学习, 人工智能, 自然语言处理, aws 21人 已看 尺度定律(Scaling laws)是一种描述系统随着规模的变化而发生的规律性变化的数学表达。这些规律通常表现为一些可测量的特征随着系统大小的增加而呈现出一种固定的比例关系。尺度定律在不同学科领域中都有广泛的应用,包括物理学、生物学、经济学等。有趣的是,OpenAI的研究者在2020年发现,大语言模型也遵循着尺度定律[1]。大语言模型的尺度定律描述的是模型的性能 𝐿 ,模型的参数量大小 𝑁 ,训练模型的数据大小 𝐷 以及训练模型使用的计算量 𝐶 之间的关系。
深度学习训练八股 2024-05-03 python, 机器学习, 深度学习, 人工智能, pytorch 25人 已看 一、模型中的函数的定义1.torchmetrics.AUROC(1).binary>>> from torch import tensor>>> preds = tensor([0.13, 0.26, 0.08, 0.19, 0.34])>>> target = tensor([0, 0, 1, 1, 1])>>> auroc = AUROC(task="binary")>>> auroc(preds,
自动驾驶学习1-超声波雷达 2024-05-07 自动驾驶, 学习, 机器学习, 人工智能 22人 已看 超声波雷达:利用超声波测算距离的雷达传感器装置,通过发射、接收 40kHz、48kHz或 58kHz 频率的超声波,根据时间差测算出障碍物距离,当距离过近时触发报警装置发出警报声以提醒司机。超声波:人耳所不能听到的一种频率大于 20kHz 的声波,具备声波传输的反射、折射、干涉等物理特性,对外界光线和电磁场不敏感,声波强度不受雨雪天气等恶劣环境的影响。UPA:超声波驻车辅助(Ultrasonic Parking Assistant),安装在汽车前后保险杆上的超声波雷达,用于测量前后障碍物。
fero - yolo - mamba:基于选择性状态空间的面部表情检测与分类 2024-05-07 yolo, 机器学习, 人工智能, 数据挖掘, 分类 67人 已看 面部表情识别(FER)在理解人类情绪线索方面起着关键作用。然而,基于视觉信息的传统FER方法存在一些局限性,如预处理、特征提取和多阶段分类过程。这些不仅增加了计算复杂性,还需要大量的计算资源。考虑到基于卷积神经网络(CNN)的FER方案在识别面部表情图像中嵌入的深层、长距离依赖关系方面常常不足,以及Transformer固有的二次计算复杂性,本文提出了FER-YOLO-Mamba模型,该模型融合了Mamba和YOLO技术的原理,以促进面部表情图像识别和定位的高效协调。
百面算法工程师目录 | 深度学习目标检测、语义分割、分类上百种面试问答技巧 2024-05-07 面试, 机器学习, 人工智能, 数据挖掘, 分类 14人 已看 面试,面试技巧,面经,深度学习,yolo,面试问题,面试提问,面试素材
生成对抗网络(GAN)入门 2024-05-03 生成对抗网络, 机器学习, 深度学习, 人工智能, 神经网络 19人 已看 判别器的任务是尝试区分接收到的数据是真实数据还是由生成网络生成的数据。生成器的任务是从随机噪声中生成与真实数据相似的合成样本,而判别器则负责辨别给定的样本是真实数据还是生成器产生的人工样本。在生成对抗网络(GANs)中,生成器(G)是一个关键组件,其任务是利用随机噪声(通常表示为z)作为输入,并通过不断的学习和拟合过程生成一个与真实样本在尺寸和分布上相似的伪造样本G(z)。GAN的原理在于通过这种对抗性训练,生成器学习生成逼真的数据,而判别器学习更好地区分真实和生成的数据。
G1 - 生成对抗网络(GAN) 2024-05-03 生成对抗网络, 机器学习, 深度学习, 人工智能, 神经网络 13人 已看 GAN是一个非常有趣的网络,它使用了一个非常简直的二分类器来做判别器,然后使用一个输入与输出相同的模型来做生成器。生成器会学习到给定的数据中的分布情况,从而模拟出与给定数据同样的分布,作为生成器的输出。经过50个轮次的运行,图像竟然真的可以开始输出一些和原始图像非常相似的结果,让我感觉非常的不可思议。从计算机其它领域获得一些概念,然后融入到人工智能中,有时候会有非常不错的结果。