【CUDA 基础】4.1 内存模型概述
【CUDA 基础】4.1 内存模型概述

解释一下,时间局部性,就是一个内存位置的数据某时刻被引用,那么在此时刻附近也很有可能被引用,随时间流逝,该数据被引用的可能性逐渐降低。 空间局部性,如果某一内存位置的数据被使用,那么附近的数据也有可能被使用。

【CUDA 基础】4.0 全局内存
【CUDA 基础】4.0 全局内存

上一章我们整个一章都在研究CUDA的执行模型,必须承认执行模型中,核的配置,决定了程序执行效率,但是程序的执行效率不只由线程束,线程块等执行结构决定,内存也严重的影响了性能。 举个例子,一个老例子,但是这个例子真的非常贴切

【数理统计学简史】1.5 《推测术》前三部分内容提要
【数理统计学简史】1.5 《推测术》前三部分内容提要

本文我们主要介绍伯努利,我们这里要说一下我们主要介绍的伯努利全名叫:雅各布·伯努利,说一下全名是因为他们家族很多人都是数学家,陈老师书中说至少有12人,其中5位在概率论方面有贡献,雅各布的弟弟约翰,和侄儿尼古拉斯都是概率论的贡献者

【数理统计学简史】1.3 帕斯卡和费马的通信
【数理统计学简史】1.3 帕斯卡和费马的通信

费马就是费马大定理在大家学习数学的过程中应该比较容易接触到,在近年被证明,费马主要在数论方面的研究名声较大,其在概率中的恭喜有些偶然——他在 1654年7~10月 和帕斯卡有7封书信来往,其中3封是帕斯卡写给费马的。

【CUDA 基础】3.6 动态并行
【CUDA 基础】3.6 动态并行

动态并行的好处之一就是能让复杂的内核变得有层次,坏处就是写出来的程序更复杂,因为并行行为本来就不好控制,去年我在没有系统的学习CUDA的时候写过一个400行左右的内核,用来训练人脸检测程序,确实比cpu块,但是从gpu的温度来判断,并没有很高的利用率(当时还不会使用性能检测工具这些,当时TensorFlow跑的时候GPU温度有80多,但是我写的就只有60多,所以我断定,gpu性能完全没发挥,但是那个程序还是运行了好久,可见磨刀不误砍柴工这句话是多么正确)

【数理统计学简史】1.2 分赌本问题
【数理统计学简史】1.2 分赌本问题

虽然卡丹诺这个解法不知道根据啥得到的,但是他注意到了起决定性的是 $S_1,S_2$ 和 $S$ 之间的差距,而不是 $S_1,S_2$ 本身。 这个问题的根本原因在于人们当时对期望的认识不统一