Logo

分类:机器学习

10 篇文章

两种计算miou的方式

最近在看miou的算法的时候碰到了个问题,有两种计算方式,实测miou的方式是voc pascal官方计算的方式,miou2有点不明意义。import randomimport numpy as npdef fast_hist(a, b, n): # ---------------------...

pytorch各个版本的whl包下载

https://download.pytorch.org/whl/torch_stable.html...

深度学习数据集

Celeba...

pytorch读取voc2012数据集

import torchimport torchvisionfrom PIL import Imageimport numpy as npdata = torchvision.datasets.VOCSegmentation(root='data', year='2012&#...

MachineLearning-CycleGAN训练发现的问题

前言学习cycleGAN的时候,使用horsezebra数据集训练生成器损失一直增大![loss (1)](/upload/2023/03/loss (1).png)...

MachineLearning-CycleGan

数据集wget https://people.eecs.berkeley.edu/~taesung_park/CycleGAN/datasets/monet2photo.zip...

MachineLearning-GAN网络的理解

介绍GAN网络由两个网络组成,分别是判别器网络、生成器网络,生成器网络不断将生成的图片的空间压缩,直到和我们的样本图片空间重合,而判别器则是在整个空间中把样本空间和生成器生成的空间区分开,当生成器的空间和样本空间一致时,生成器的误差达到0.5,直观上理解就是瞎猜,随机猜测,已经没有了分辨能力了。判别...

MachineLearning-为什么神经网络sigmoid的输出看做是概率

问题在用神经网络做分类任务时,比如做二分类任务时,我们常常会设计网络的输出层为1个结点,然后使用sigmoid激活函数输出,sigmoid的值域是(0,1)。一般的文章里都会将这个输出的值看做是概率,一开始我也是这样理解的,只是最近对这个有疑惑。疑惑我们在做二分类任务时,是给定A类样本 A={a1,...

MachineLearning-数据分布、函数、神经网络

数据分布机器学习里所说的数据分布,我的理解是数据集在高维空间中的呈现的形状。...

MachineLearning-样本估计

现在有两类sample,一类是从真实数据中采样得到的,另一类是从噪声分布中采样得到的,分别采样到N个。有这么一个函数P,输入真实数据,输出1,输入噪声数据,输出0。我们要用神经网络拟合这个函数P。假如拟合得足够好时,输入真实数据,P就会输出得很接近1,输入噪声数据,P就会输出得很接近0,因为没完全拟...