挖矿赚加密货币?不如出租GPU计算机获取加倍的利润

版权声明:本文为博主原创文章,遵循 CC 4.0 by-sa 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://csdnnews.blog.csdn.net/article/details/79777589

点击上方“CSDN”,选择“置顶公众号”

关键时刻,第一时间送达!

本文作者在Reddit上提出了一个设想:出租GPU计算机,说不准可以获取加倍的挖矿利润?他阐述了这个构思的合理性及可行性。此外,也有很多网友对这个想法很有兴趣,同样也提出了自己的看法。

640?wx_fmt=jpeg&wxfrom=5&wx_lazy=1

作为一个穷学生,我最近在研究深度学习和AI,我的业余项目经常需要大量的GPU去训练神经网络。不幸的是AWS和Google云提供的云GPU实体实在太贵了(加上我的学生免费额度3天就用完了),所以对我的业余项目来说,最大的困难是GPU计算上的不足。

但是我很幸运,我有个朋友用他的Nvidia 1080 ti在以太坊挖矿。相比在以太坊挖矿,我可以在Venmo上付给他双倍的价钱,同时作为回报,他以大大低于AWS的价钱把他的计算机借给我训练我的神经网络。

当时我就在想,“嗯,加密货币挖矿者是不是可以轻易地把他们的GPU借给AI研究人员呢?

实际上,市场上几乎没有提供小型云服务的基础设施。所以我建立了Vectordash网站,通过这个网站,你可以将自己的Nvidia GPU出租给AI研究人员,这有点像Airbnb,但是出租的对象是GPU。与挖矿相比,目前出租GPU可以比利润最高的加密货币多赚3-4倍。

你只需要运行桌面客户端,并列出你的机器将保持在线多久,如果有人感兴趣,他们就会租你的机器,并根据使用机器的时长支付相应的费用。如果你喜欢还可以继续挖矿,因为桌面客户端可以在挖矿和租赁(如果有人要租你的机器的时候)之间自动切换。

我还在评估是否GPU矿工对出租这件事感兴趣,但是作为一个仅仅为了业余项目不得不每天为AWS上的GPU支付高达20美元的人来说,这会有很大的帮助。

常见问题:

1)AMD的GPU可以出租吗?

就目前的情况而言,还不行。也许将来可以,但时间未定。

2)Windows系统可以出租吗?

就目前的情况而言,还不行。也许将来可以,但时间未定。

3)什么时候我可以把自己的GPU挂在Vectordash出租?

这周我有几个考试(挺无聊的考试),但是桌面客户端很快就能做完了。预计在几天之内我就会发出安装说明的邮件。

4)怎样才能出租我的机器?

您只需填写此表格(https://goo.gl/forms/ghFqpayk0fuaXqL92)就可以了。我会在几天之内发邮件通知您具体的安装说明。在此期间,您可以在Vectordash上注册帐号。

----针对以上的设想,有网友给出了自己的评论:

评论1:我对文中所说的出租GPU非常感兴趣,但是我有几个问题:

  • 机器/AI学习需要多少PCIe带宽?现在很多人都用1x risers,对机器学习来说PCIe带宽够吗?

  • CPU利用率。目前挖掘几乎不需要CPU,但我不确定AI学习需要什么。现在大多数矿工使用缓慢但高效的赛扬处理器。

  • 除了上述之外,还需要什么样的主系统内存?我知道很多矿工使用4GB,但我个人使用8GB。

  • 带宽。跑机器学习需要多少网络带宽?上传和下载?

  • 听起来所有的机器学习都是在虚拟机上运行的?如果你有6个GPU,那么就可以在系统上用不同的用户跑多个虚拟机?还是说你只运行一个虚拟机,并由这个虚拟机负责路由?

我觉得你的想法很不错,在这类的项目上做设备投资听起来很有意思。

更新:我快速上网查了下,看起来似乎AI更适合在16倍以上的8倍通道上运行,更不用说1倍通道可提供的带宽了。 可能需要在现有的一些挖矿系统中测试一下,看看不同的PCIe带宽的性能如何。

作者对评论1的答复:

很棒的问题,谢谢您的提问。

  1. 16倍速的通道肯定会更好!如果不能完全符合内存条的要求,那么数据集的性能会有略微的下降,但我不确定性能究竟可以到何种程度。

  2. CPU很重要,如果赛扬CPU在训练神经网络时成为GPU的瓶颈,那么AI研究人员可能只好挑选CPU更快的机器使用。

  3. 机器的规格要求如上述所示。这完全取决于AI研究人员。较大的神经网络可能需要更多RAM,而较小的网络所需的较少。具体的额度则取决于具体训练的模型。

  4. 还是那句话,取决于具体的训练模型和数据集。我接触过的数据集中大多数<1GB。如果您希望更好地了解研究人员经常使用的数据集大小,我建议您可以看看Kaggle比赛。通常,使用100GB+数据集的研究人员已经拥有了强大了GPU(作为实验室或组织的一部分),并且可能不需要借助Vectordash之类的帮助了。

  5. 我使用的是LXC容器(由Ubuntu的同一家公司开发)。虚拟机很快就会变乱。我所使用的抽象如下:每台机器可以有多个GPU,并且客人可以在机器上加速实例(或容器),其中该容器可以访问n个GPU,n<=机器上可用的GPU总数。

论2:这是个精彩绝伦的点子。为你点赞!

如果我是你,我可能会……改良你的API,使之与AWS相兼容。让研究人员可以非常简便的在你的平台上启动GPU,而不同通过AWS。还有呀,为什么不让他们同时使用你的平台和AWS,系统自动为他们选择最便宜的可用资源呢?这可以在短期内解决租用机器不足的问题,方便你的买家始终可以获取最便宜的资源,而无需在你的平台和AWS之间切换。然后,你可还以公布主机数距离需求还差多少。

原文:https://www.reddit.com/r/gpumining/comments/86ofw2/rent_out_your_gpu_compute_to_ai_researchers_and/

译者:马晶慧

责编:言则

————— 推荐阅读 —————

点击图片即可阅读

640?wx_fmt=png

640?wx_fmt=png

640?wx_fmt=png

640?wx_fmt=jpeg640?wx_fmt=gif

展开阅读全文

没有更多推荐了,返回首页