大家好,今天小编关注到一个比较有意思的话题,就是关于linux与深度学习的问题,于是小编就整理了4个相关Linux与深度学习的解答,让我们一起看看吧。
linux服务器可以安装gpu吗?
是的,Linux服务器可以安装GPU(图形处理单元)。GPU通常用于加速计算任务,如深度学习、科学计算和图形渲染。要在Linux服务器上安装GPU,你需要确保服务器硬件支持GPU,并安装相应的GPU驱动程序。常见的GPU供应商如NVIDIA和AMD都提供适用于Linux的驱动程序。一旦安装好驱动程序,你可以开始利用GPU来加速相关的计算工作。
为什么绝大多数深度学习包都基于linux?
因为linux有很多开源版本,而绝大多数深度学习包都是开源项目,本着分享至上的开源精神,选取linux作为操作系统更为合适,影响力传播力都会更强;而对使用程序员来说,在哪个操作系统环境下开发程序差别并不大,且开源系统免去很多侵权的风险。
哪里可以找到完整的深度学习代码?
学习深度学习,这里我扩展到整个机器学习领域,我这里给大家推荐两本书,一个学习框架,一套实践课程!
深度学习的圣经
相信关注深度学习的都知道,深度学习有一本圣经,那就是《Deep Learning》,目前这本书除了英文原版,中文版也已经翻译出版了,在各大电商平台都能够买得到,我建议去Amazon购买,中文版大约120人民币,英文原版书籍大约450人民币。如果你觉得不想花这笔钱,直接去deep learning***以及github上查看,并且也有中文版,我也有PDF版本,大家可以私信我发给大家,当然我建议还是直接买书有感觉一些。
这本书的三位作者Ian Goodfellow、Yoshua Bengio和Aaron Courville是深度学习领域的顶级学者,中间这位相信不用介绍了吧,学习人工智能的如果不知道这位大大的,你就不配学习人工智能!Geoffrey Hinton、Yann LeCun、Yoshua Bengio三人齐名,是人工智能领域的三驾马车,而且三人分别是Google、Microsoft、Facebook三家企业的人工智能实验室主管,江湖地位可见一斑。而这本书的作者就是三巨头其中之一,这么说,不要怀疑这本书的价值和地位,如果你要学习深度学习、学习人工智能,这本书必看!
中文书籍的经典
南京大学教授,南京大学计算机系副主任,南京大学人工智能学院院长周志华教授的《机器学习》,是一本非常好的机器学习入门书籍,非常经典。这么多年,我国计算机教育界出了很多成功的书籍,比如严蔚敏教授的《数据结构》、谭浩强教授的《C程序设计》,可以说都是非常成功的书籍,但是我觉得真正能成为优秀的书籍的,就是周志华教授的这本《机器学习》了。
这本书的优点有,公式推导非常详细,参考文献也十分详尽,基本上本科生的数学基础是完全没有问题的,比深度学习这本书难度要低一些,这本书也是必看的。
恩达博士的课程
吴恩达博士不用多说了吧,原谷歌、百度的首席科学家,人工智能实验室主管,Google Brian和百度大脑的设计师,恩达博士从创立Coursera这一Mooc网站开始,就致力于推广人工智能,降低人工智能的学习门槛。
而恩达博士也推出了一门非常棒的实践课程,叫做《Machine Learning Yearing》,这门课程我也有电子书,感兴趣的同学也可以私信我。
谷歌的学习框架
目前行业最好的深度学习框架是什么?毫无疑问是TensorFlow,TensorFlow是通过数据流图的形式来实现,拥有完备的Tutorial,官方的支持document非常完善,就好像学习Arch Linux一样,你就知道开源软件的官方文档是多么的重要。
TensorFlow出现了以后,渐渐地有很多高级的[_a***_]包例如keras,你也可以跟着GitHub上那些排名考前的demo写自己的model,你绝对值得拥有,感谢Google为大家又提供了一款这么好的开源软件,人工智能学习的最好帮手。
好了,文章篇幅有限,文章中提到的电子书籍,需要的可以私信我,但是平时比较忙,有时候没来得及第一时间回复还请原谅,也欢迎大家关注我的账号。
如何评价Linux之父Linus认为并行计算基本上就是浪费大家的时间?
原文:
并行计算有什么好的?
硬件的性能无法永远提升,当前的趋势实际上趋于降低功耗。那么推广并行技术这个灵丹妙药又有什么好处呢?我们已经知道适当的乱序CPU是必要的,因为人们需要合理的性能,并且乱序执行已被证明比顺序执行效率更高。
推崇所谓的“并行”极大地浪费了大家的时间。“并行更高效”的高大上理念纯粹是扯淡。大容量缓存可以提高效率。在一些没有附带缓存的微内核上搞并行毫无意义,除非是针对大量的规则运算(比如图形处理)。
没人会回到从前了。那些复杂的乱序运行内核不会消失。扩展不会一直进行下去,人们需要的是移动性,因此那些主张扩展至上百内核的都是疯子,不要鸟他们。
他们究竟是如何幻想那些神奇的并行算法会有用武之地的呢?
并行只有对图形计算和服务器有意义,而在这些领域我们已经大量应用并行了。把并行推广到其他的领域没有意义。
所以说忘记并行吧。它不会到来的。4个左右的内核对终端用户来说没有问题,在移动领域里,不大幅增加能耗的情况下,你没办法再塞进更多的核。任何一个理智的人都不会为了要塞入更多的内核而***内核以降低其大小和性能,***内核的唯一理由是你想进一步降低功耗,因此你还是不会得到大量的核。
所以争论是否要讲究程序的并行性根本就是谬误,其前提条件都是错误的。它只不过是一个早该过时的时髦术语罢了。
并行程序在上面提到的一些地方是有用的,并且已经大量地运用了,比如在服务器领域,人们已经并行很多年了。
到此,以上就是小编对于linux与深度学习的问题就介绍到这了,希望介绍关于linux与深度学习的4点解答对大家有用。