发新话题
打印

深度学习

杀死所有正在运行的容器
复制代码 代码如下:
docker kill $(docker ps -a -q)

删除所有已经停止的容器
复制代码 代码如下:
docker rm $(docker ps -a -q)

删除所有未打 dangling 标签的镜像
复制代码 代码如下:
docker rmi $(docker images -q -f dangling=true)

删除所有镜像
复制代码 代码如下:
docker rmi $(docker images -q)

为这些命令创建别名
复制代码 代码如下:
# ~/.bash_aliases

# 杀死所有正在运行的容器.
alias dockerkill='docker kill $(docker ps -a -q)'

# 删除所有已经停止的容器.
alias dockercleanc='docker rm $(docker ps -a -q)'

# 删除所有未打标签的镜像.
alias dockercleani='docker rmi $(docker images -q -f dangling=true)'

# 删除所有已经停止的容器和未打标签的镜像.
alias dockerclean='dockercleanc || true && dockercleani'

另附上docker常用命令

docker version #查看版本

docker search tutorial#搜索可用docker镜像

docker pull learn/tutorial #下载镜像

docker run learn/tutorial echo "hello word"#在docker容器中运行hello world!

docker run learn/tutorial apt-get install -y ping#在容器中安装新的程序

保存镜像

首先使用docker ps -l命令获得安装完ping命令之后容器的id。然后把这个镜像保存为learn/ping。
提示:
1.运行docker commit,可以查看该命令的参数列表。
2.你需要指定要提交保存容器的ID。(译者按:通过docker ps -l 命令获得)
3.无需拷贝完整的id,通常来讲最开始的三至四个字母即可区分。(译者按:非常类似git里面的版本号)
正确的命令:
docker commit 698 learn/ping

运行新的镜像

docker run lean/ping ping www.google.com

检查运行中的镜像

现在你已经运行了一个docker容器,让我们来看下正在运行的容器。
使用docker ps命令可以查看所有正在运行中的容器列表,使用docker inspect命令我们可以查看更详细的关于某一个容器的信息。
目标:

查找某一个运行中容器的id,然后使用docker inspect命令查看容器的信息。
提示:

可以使用镜像id的前面部分,不需要完整的id。
正确的命令:
docker inspect efe

ps目前还在开发阶段,不建议部署到生产环境中,继续观望中。。。
乐乎设计,乐乎生活~

TOP

https://yq.aliyun.com/articles/60601
基于Docker的Tensorflow实验环境
在阿里云上
乐乎设计,乐乎生活~

TOP

http://www.open-open.com/lib/view/open1487579427487.html
基于Docker的TensorFlow机器学习框架搭建和实例源码解读
乐乎设计,乐乎生活~

TOP

http://www.leiphone.com/news/201606/ORlQ7uK3TIW8xVGF.html
真正从零开始,TensorFlow详细安装入门图文教程!


门牌号数据集
http://ufldl.stanford.edu/housenumbers/
乐乎设计,乐乎生活~

TOP

Python默认编码错误SyntaxError: Non-ASCII character '\xe5'之解决方法
在编写Python时,当使用中文输出或注释时运行脚本,会提示错误信息:
SyntaxError: Non-ASCII character '\xe5' in file *******

解决方法:
python的默认编码文件是用的ASCII码,你将文件存成了UTF-8!!!(文件中存在中文或者其他语言,就会出现此问题!)
解决办法很简单!!!
在文件开头加入:
# -*- coding: UTF-8 -*-    或者  #coding=utf-8

(注:此语句一定要添加在源代码的第一行)
乐乎设计,乐乎生活~

TOP

乐乎设计,乐乎生活~

TOP

http://www.leiphone.com/news/201702/n0uj58iHaNpW9RJG.html

从系统和代码实现角度解析TensorFlow的内部实现原理 | 深度

利用了符号编程
乐乎设计,乐乎生活~

TOP

乐乎设计,乐乎生活~

TOP

three.js是JavaScript编写的WebGL第三方库。提供了非常多的3D显示功能。
 D3.js是一个数据可视化的库,看看他们的DEMO就可以知道,技术基础是SVG。兼容性是IE9+。
  webgl是HTML5中提出的新技术,是一种3D绘图标准,这种绘图技术标准允许把JavaScript和OpenGL ES 2.0结合在一起,关于它的教程可以看看hiwebgl。目前兼容性堪忧
  three.js是以webgl为基础的库,封装了一些3D渲染需求中重要的工具方法与渲染循环。它的教程同样可以在hiwebgl里面找到。
  three.js之于webgl,类似于windows版本的虚幻引擎之于D3D。当然,虚幻引擎的能力范围比three.js大得多。d3.js跟上面两者没有关系。
乐乎设计,乐乎生活~

TOP

Pix2pix是一个全新的工具,旨在允许任何类型的图像变换的应用程序无关的训练。所需要的是包含图像对A和B的数据集,并且可以训练网络以变换到任一方向。可能的应用包括着色,分割,线图画到图像,映射到卫星视图,风格化等。操作在两个方向上工作,因此通过正确训练的网络,可以从地图或从彩色分割的建筑立面生成合理的卫星视图。

根本停不下来!给个轮廓,TensorFlow还你一只完整喵
http://bigdatadigest.baijia.baidu.com/article/780403
乐乎设计,乐乎生活~

TOP

黄仁勋对人工智能的6个总结:GPU怎样催化AI计算

一、4年以前,AlexNet第一次带来了深度学习的爆发

  2012年一个年轻的研究员叫Alex Krizhevsky。在多伦多大学AI实验室,他设计了一个可以学习的软件,这个软件靠自己就能进行视觉识别。深度学习这个时候已经发展了一段时间,可能有20年。

  Alex所设计的这个网络,它有一层一层的神经网络,包括卷积神经网络、激发层、输入和输出,可以进行区分。这样一个神经网络可以学会识别影像或者是规律。深层神经网络所带来的结果是它会非常有效,会超出你的想象,但是它进行训练需要的计算资源超过了现代计算机的能力,它需要几个月的时间去训练一个网络才能真正地识别图像。

  Alex当时的看法是,有一个叫做GPU的新型处理器,通过一种叫CUDA的计算模式,可以适用于并行计算,用于非常密集的训练。2012年他当时设计了叫Alex的网络,提交给了一个大规模计算视觉识别大赛,是一个全球的竞赛,并且赢得了这个大赛。

  AlexNet战胜了所有由其他计算视觉专家所开发的算法。Alex当时只用两个NVIDIA GTX580,在通过数据训练了几天后,AlexNet的结果和质量引起关注。所有搞计算视觉的科学家,所有的AI科学家都非常关注。在2012年,Alex Krizhevsky启动了计算机深度学习的基础,这是现代AI的一个大爆炸。他的工作和成果在全世界引起了很大反响。

  我相信那个时刻会被记住,因为它确实改变了世界。之后有很多研究开始围绕深度学习进行。2012年斯坦福大学的吴教授(吴恩达)和我们开发了一个非常大规模的GPU配置用于深度学习的训练,很快在三年之后每一年都会有新的网络出来,能够不断地战胜其他方案获得更好的记录。

  二、声音和视觉输入铺垫了构造AI世界的基础

  到了2015年,谷歌和微软都实现了人类般的视觉识别能力。它是由软件写就的,在GPU上经过训练可以实现比人类更高的视觉识别能力。2015年百度也宣布他们的语音识别达到了超越人类的水平,这是非常重要的一个事件。这是第一次计算机能自己写程序,实现超过人类的水平。

  视觉和语音是两个非常重要的感官输入,是人类智能的基础。现在我们已经有了一些基础的支柱,让我们能够进一步推进AI的发展,这在之前是难以想象的。如果声音和视觉的输入值不可靠的话,怎么能够有机器可以去学习,可以有人类一样的行为。我们相信这个基础已经有了,这也是为什么我们认为现在是AI时代的开始。

  全世界的研究者都看到了这些结果,现在所有的AI实验室都开始使用GPU跑深度学习,这样他们也可以开始建立未来AI的基础。基本上所有的AI研究者都开始用我们的GPU。

  GPU的核心是模拟物理世界,我们用GPU创建虚拟世界用于游戏、设计,用于讲故事,比如制作电影。模拟环境、模拟物理属性、模拟周围所看到的世界,构建虚拟世界的过程如同人类大脑在想象时进行的计算。因为深度学习的发展,使我们的工作进入新的阶段,人工智能。对人类智能的模拟会是我们所做的最重要的工作之一,而且我们对此非常激动。

  三、GPU计算渗透到深度学习各个领域

  今天也是我们第一次在中国举办GTC大会,这次很大一部分内容会是关于人工智能和深度学习。我们是一个计算公司,SDK对于我们来讲是最重要的产品,GTC是我们最重要的一场盛会。大家可以看一下过去几年的成长,这是非常了不起的增速。

  今年GTC有16000名人员参加。下载我们SDK的开发人员增长了3倍,达到了40万开发人员。但最了不起的数字是深度学习开发人员在两年之内有了25倍的增长,现在下载我们的深度神经网络实验室引擎的开发人员已经增长了25倍,下载了5万5千次。

  大家到底用它干什么呢?很多都是AI研究人员,他们来自于全球各地,现在所有的实验室都会使用我们的GPU平台来做自己的AI研究,有软件公司、互联网软件提供商,还有互联网公司、汽车公司、政府、医疗成像、财务、制造等公司。现在用GPU深度学习的领域是非常广的,非常了不起的。

  四、大脑的运作就像GPU的计算

  大家要问为什么AI研究人员选择GPU,Alex他们发现GPU的并行运算实际是非常符合深度学习网络的计算特征。那么进一步来讲,为什么GPU对深度学习来讲是非常适合的工具呢?我想给大家讲一个不是那么严肃的例子说明一下为什么GPU非常重要。

  大脑就像一个GPU。比如我让大家想象乒乓球,大家闭上眼睛,你们大脑会形成一个几个人打乒乓球的图像,如果让大家想象功夫熊猫,那么脑子里会出现是类似的功夫熊猫图像。所以我们的大脑在思考时会生成一些图片。反过来,GPU的构架也像大脑一样,它不是由一个处理器进行序列的运算,我们的GPU有上千个处理器,非常小的处理器组合在一起来共同解决问题,这上千个处理器会进行数学计算、互相连接、分享信息,最终能够解决一个很大的问题,就好像是我们的大脑一样。所以说大脑就像GPU,因为大脑可以产生图片,而GPU也像人的大脑一样,所以有可能这种新的计算模式、新的计算模型可以解决虚拟现实的问题,它确实是非常适合GPU的。

  深度学习是一种新的计算模式,它会涉及软件的方方面面。深度学习首先要设计一个网络并且对网络进行训练,针对一个网络的训练需要几十亿甚至更多的操作,涉及上百万甚至有更多的数据,通过这些数据对网络进行训练,需要很长的时间。如果没有一个GPU,这个过程可能需要好几个月,但GPU把这个时间压缩到几天内,这也是为什么GPU能够帮助大家更好地解决问题。

  五、寻找比摩尔定律进化得更快的计算模式

  训练是深度学习的一个基础,这个网络有了之后,你希望运用这个网络来进行预测,进行推理,进行归类,要对一个信息进行推理,比如有几十亿人每天在网上问很多的问题,有可能是图片,文字,语音,将来有可能是视频这种形式。在数据中心当中GPU推理能够非常快地响应。所以深度学习的第一部分是训练,第二部分是推理。

  深度学习的第三部分,有些人叫IoT,智能设备、智能终端,也许是摄像头、汽车、机器人,也许是话筒,这样互联设备就变成了智能设备。物联网需要有AI进行驱动,需要深度神经网络进行驱动,大量的智能终端根本目标是需要去识别去归类进行交互,要快要准确,并且尽量在低功耗状态下实现所有这些功能。

  在接下来这些时间,软件的开发会和以前不一样,我们运行软件的方法也会不一样,在上面的运算也会不一样,很多设备上要运行什么东西会不一样,所以深度学习将会影响到到计算的各个方面。

  现在我们看一下训练,首先我们应该意识到训练的复杂性。前面提到了训练可能是几十亿甚至万亿的运算,模型越大数据越多,结果就会越准确,数据多,加上大模型、大的计算量将会带来深度学习更好的结果,这是非常根本的、非常重要的。

  微软有一个叫ResNet的识别网络,如果跟AlexNet比较,AlexNet神经网络是8层,总计算量是1.4G的浮点运算,错误率是16%。8层和1.4G,错误率是16%,意味着什么?这是当时最好的。当时计算视觉专家研发的算法大部分错误率可能比16%更高,这说明用传统计算视觉方式的局限性很大,准确率没有那么高。

  如果通过深度学习,我们在过去几年中可以实现3.5%的错误率,3.5%这是在几百万的图像当中进行测试152层的一个网络,几年之前只有8层,现在是152层,总共的计算能力是22.6G/flps,这是18倍的增长,这就表明了深度学习存在的问题。三年之内深度学习的计算负载增长了18倍,这比摩尔定律快很多。

  所以问题变得越来越复杂,越来越难,但是计算的能力却没有相应速度的增长,这也是为什么整个行业都开始寻找新的计算模式,为他们都开始来考虑使用GPU计算。

  另一个案例更加惊人,是关于语音识别。语音识别是自然语言理解的基础,自然语言理解也是智能的基础。这是百度吴恩达的实验室的工作,2014年有2500万的参数在这个模型当中,训练的材料是7000小时的语料8%的错误率。2015年的训练数据是此前的2倍,深度学习网络是原来的4倍大,2倍的数据量,4倍的网络复杂性,实现的错误率是5%,就在1年之内百度的DPS错误率降至了40%左右。但是需要付出什么样的代价?就是计算量的增长。

  深度学习的方法花了这么长的时间才真正出现,因为这样的方法从计算条件来说是没有办法实现的,此前没有任何计算机可以对这样的网络进行训练,直到GPU出现用于深度学习的出现。这是我讲的为什么我们对这样新的计算模式非常振奋,为什么现在在我们这个计算行业当中这个时刻非常重要。

  同时这个趋势在未来还会继续,大家要记住我们现在还是5%的错误率,我们希望是0%的错误率。每个人的声音都可以被识别,甚至是做得更好,可以去理解词的语义,所以我们还有很多更大的计算需求。

  六、AI会自上而下地改变计算系统

  Pascal是我们针对深度学习进行优化的GPU架构。Pascal的处理器是真正的奇迹,Pascal是一个全新的架构,用立体的晶体管制成,用立体的封装,用3D的堆栈,所有这些使得我们的Pascal架构实现了巨大的性能提升,新的指令级和新的制造制成、新的封装方式,以及新的互联连接方式把多个GPU连到一起,这样它们可以做一个团队来开展工作。我们花了3年的时间,1万个人年的投入,完成了这项我们自己史上最大的工作。

  我们也认识到处理器还只是开始。在AI计算这块有这样一个新的计算模式,计算系统架构也会发生变化,处理器的设计会发生变化,算法会发生变化,我们开发软件的方式会发生变化,系统的设计也会发生变化。

  我们有一个新的超级计算机,在一个盒子的大小之内,这就是叫DGX-1,替代了大约250台服务器,整个数据中心都缩成了一个小盒子的大小。这个超级计算机完全是重新设计的。看一下我们处理器的成就再加上DGX-1,使得我们在一年之内的性能有65倍的提高。相比较这个Alex第一次用我们GPU来训练他的网络的时候,这是65倍的提高。这比摩尔定律的速度要快很多,比整个半导体的发展要快很多,比任何其他的在计算的进步方面要快很多。
乐乎设计,乐乎生活~

TOP

AI是怎么让机器学会涂鸦的?
时间 2017-05-05 14:49:06 Google黑板报
原文
  http://blog.sina.com.cn/s/blog_9c079b040102yfzb.html
主题 数据挖掘

在 Google,AI 和机器学习绝不仅仅是“高冷”的实验和冗杂的数据。去年,来自Google AI 实验室的一群脑洞巨大的科研人员已经证明了这一点:他们用 AI 唱 Rap,识别实物,编写旋律,构建可视化高维空间...

在这些奇奇怪怪却很有意思的“小玩意儿”之中,有一个 AI 版的“你画我猜”:QuickDraw。AI 会给你一个涂鸦主题,在你作画的过程中 AI 将不断地识别和猜测你画了什么,直到得出正确答案,或是 20 秒倒计时结束。



而在不久之前,Google 又推出了功能更加实用的“你画我猜”升级版 AutoDraw,可智能识别涂鸦内容并进行完善。有了它,就连“灵魂画手”也能画出一手好画啦:

涂鸦是人们对事物的抽象视觉表达。AI 和机器学习技术似乎使机器学会了“看懂”和“理解”涂鸦内容,但这似乎还远远不够。比如,要如何让机器学会自行生成涂鸦呢?

其实,在此之前,科研人员已在机器生成图像的领域做了大量的工作。这是一项非常有难度的研究,其过程中不乏产生一些十分“魔性”的成品:

近期,来自 Google 的科研人员们在论文《简笔画绘图的神经表征》(A Neural Representation of Sketch Drawings) 中,让教会机器绘画成为了可能。

科研人员们受人类绘画过程的启发,降低维度,通过用大量的手绘涂鸦来组成数据集训练模型,训练机器来理解人们在绘制涂鸦时是在何时起笔、走笔方向、何时停笔。经过训练的模型在接收一张人手绘的涂鸦后可以生成一张同主题的新涂鸦:

用“猫”为主题的涂鸦训练的模型重建的猫涂鸦

是不是看起来就只是把人的涂鸦重复了一遍?但事情可没有是这么简单!

实际上,模型生成的新涂鸦的确不是简单地重复了人的绘画,而是对图像的本质进行了分析和理解的。为证明模型确实是学会了人类画猫的一些技巧,可以尝试输入一些故意犯了一些小错误的涂鸦:

在收到故意被画成三只眼的小猫涂鸦后,模型输出了一个轮廓类似的新涂鸦,其中“三只眼”的错误已被修正。这说明经训练的模型已经理解了“猫”涂鸦的特征,理解了这个抽象概念,进而将这个抽象概念正确地表达出来。

同样,用大量小猪涂鸦训练的模型也能达到类似的效果。输入人类绘制的小猪涂鸦,也能得到一个新的、有着相近轮廓的小猪涂鸦:

可以看到,模型将第一行中八条腿的小猪涂鸦修正成了四条腿。而若是输入一张卡车涂鸦,模型则会遵从对“小猪”这个抽象概念的理解,输出一只长得像卡车的小猪!

一千个人会画出一千个不同的小猪涂鸦,比如下图绿框中的猪头和橙色框中的整猪。模型又是如何理解同一抽象概念的不同表达的呢?模型中,只有头的涂鸦各部位尺寸被一步步调整,再加上了身子,最终过度到一只完整的小猪。

科研人员还发现,模型的确对不同的涂鸦进行了类比。比如,将“身体”部分进行类比,为猫头涂鸦加上加上身子,或是将完整是小猪涂鸦中的身体去掉,剩下猪头涂鸦:

对于人类来说,涂鸦作为一种高度概括的抽象概念,在人们进行交流、表达情感的过程中起着很大的作用。让机器学会涂鸦的研究,其意义不仅在于探索机器如何对抽象概念进行理解。或许在不久的将来,这些模型将会协助艺术家进行创作,或是成为辅导人们学习绘画!
乐乎设计,乐乎生活~

TOP

http://www.tuicool.com/articles/VNZz6jj
杨强教授漫谈《西部世界》、生成式对抗网络及迁移学习

各种对抗神经网络(GAN)大合集
时间 2017-05-08 11:25:15 Github
原文
  https://github.com/YadiraF/GAN
乐乎设计,乐乎生活~

TOP

http://blog.csdn.net/sb19931201/article/details/53648615
Win10 TensorFlow(gpu)安装详解
乐乎设计,乐乎生活~

TOP

https://yq.aliyun.com/articles/60601
基于Docker的Tensorflow实验环境
乐乎设计,乐乎生活~

TOP

发新话题