<div dir="ltr">It has to do with AI. There is a lot more processing going on now where large problems are set up as matrix calculations specifically so they can take advantage of the parallelism of GPUs. NVIDIA has been actively encouraging this - for some reason. getting involved with the research into frameworks like tensor flow. They can speed up some processes by 10 to 50 times - or so they claim. When you are solving a system of equations it is relatively easy to break the work up is such a way that much of it can be done in parallel and the GPU is good at that.</div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Mon, Jul 13, 2020 at 11:19 PM William Park via talk <<a href="mailto:talk@gtalug.org">talk@gtalug.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">Hi all,<br>
<br>
Perhaps off topics... I keep coming across "GPU in Data Centers", ie.<br>
Nvidia.  Exactly what does GPU have ANYTHING do with data centers?  I<br>
can't imagine people setting up a server in the cloud, and then using<br>
that to process graphics or play games.<br>
-- <br>
William Park <<a href="mailto:opengeometry@yahoo.ca" target="_blank">opengeometry@yahoo.ca</a>><br>
---<br>
Post to this mailing list <a href="mailto:talk@gtalug.org" target="_blank">talk@gtalug.org</a><br>
Unsubscribe from this mailing list <a href="https://gtalug.org/mailman/listinfo/talk" rel="noreferrer" target="_blank">https://gtalug.org/mailman/listinfo/talk</a><br>
</blockquote></div>