通知公告

《基于GPU的并行计算及CUDA编程》2010春季培训通知

日期:2010-03-22

|  来源:信息化工作网【字号:

 

《基于GPU的并行计算及CUDA编程》2010春季培训通知

(第一轮)

中科院超级计算中心、中科院研究生院、NVIDIA公司、北京金商祺公司拟于2010年3月31日—4月2日联合举办 “基于GPU的并行计算及CUDA编程”春季培训班。

具体通知如下:

l    培训对象:从事GPU应用研究的相关科研院所及高校老师和硕博研究生及相关企业工程师。

l    培训目的:通过理论与实践相结合的培训,提高学员对GPU并行计算方法及CUDA编程技术的理解和掌握,促进GPU加速技术的普及和应用。

l    培训时间:2010年3月31日-4月2日 9:00-17:00

l    培训地点:中科院计算机网络信息中心507会议室

(注:培训教室提供无线网络环境,如需上机可自带笔记本电脑)

详细地址:北京市海淀区中关村南四街四号中科院软件园区2号楼

地图:http://www.sccas.cn/gb/other/images/situation_02.jpg

l    培训费用:包含注册费、资料费、上机费等

    科学院内学员:150元/人

    院外高校学员:200元/人

    企事业单位学员:500元/人

l    食宿安排:学员自理

l    报名方式

按照报名回的要求填写各项内容,然后发邮件到service@sccas.cn ,我们将在一个工作日之内给予回复。名额有限,报名从速。

联系人:柴芳姣,联系电话:010-58812166

l    报名截止日期:2010年3月30日17时

l    培训内容及课程安排:

时间

课程安排

Day 1

Section 1: Introduction

The emergence of large-scale applications and the demand of high performance computing

Brief introduction of parallel computing platforms and parallel computing models

Architecture of GPU

CUDA as a programming model for many-core systems

Difference between multi-threaded CPU computing and multi-threaded GPU computing

Success stories: brief description of CUDA applications in various domains

CUDA Programming Examples

Section 2: CUDA Programming Model

Parallel Computing Principles

Execution model: kernels, threads, blocks, and grids

Memory model: global, local, shared, and constant memory

CUDA Basics

An example: matrix multiplication

CUDA Toolkit

Day 2

Section 3: CUDA Threads & Storage Model

Programming using global memory, shared memory

Threads

Warp

Resource allocation

Control flow

Section 4: Performance Optimization

Part I:

Optimization strategies

Memory coalescing

Memory bank conflicts

Prefetching

Loop unrolling

Stream

Texture

Part II: Case studies

Day 3

Section 5: Parallel Computing

Introduction of parallel computing

Group exercise for understanding parallel data modal

Section 6: CUDA Parallel Programming Model

Understand Data Parallel Computing on CUDA

Execution model: kernels, threads, blocks, and grids

Memory model: global, local, shared, and constant memory

An example: reduction

Section 7: CUDA Programing Advance

Three ways Host to Device memory transaction

Understand Warp & Global Memory coalescing

Shared memory & Cache memory

Half-warp & Control flow

Understand the IO & computing

Using register

An example: Matrix Multiplication

Section 8:Application Case

Research of CUDA-based acceleration of MS-Alignment for identification of post-translational modifications

Introduction to OpenCL

 

Section 9:Q&A

 

l    主讲教师介绍:

1.     刘莹,现任中国科学院研究生院信息科学与工程学院副教授,中国科学院虚拟经济与数据科学研究中心副教授,硕士生导师。研究兴趣为海量数据的秉性和分布式数据挖掘及数据流挖掘。具有丰富的GPU并行计算及CUDA编程经验。曾于2009年中科院研究生院春季、秋季学期两次开设《高性能计算的新发展—基于GPU的并行计算机CUDA编程》课程。

2.     赵开勇 ,浪潮公司高性能计算应用顾问。现读于香港浸会大学计算机系,博士研究生,具有较强的开发和应用能力。2008年至今,作为CSDN高性能版和CUDA版 (大版主),发表多篇技术文章,解答众多技术疑问。

3.    翟艳堂,中科院超级计算中心在读研究生,一直从事基于CUDA的蛋白质翻译后修饰鉴定加速研究。2009年8月在NVIDIA CUDA校园程序设计大赛中以《稀疏矩阵与矢量乘积运算》获得命题赛第一名。

4.    李森,中科院超级计算中心在读研究生,主要从事并行化程序设计,程序性能优化和GPU通用计算。目前从事流体GPU并行计算方面工作。热衷于多核openmp多机MPI编程和硬件体系结构研究。

 

 

名回执表

----------------------------------------------------------------------------------------------------------------------

*各个字段都是必填项,请正确填写,谢谢!

学员基本信息表

姓名

单位

应用方向

联系电话

E-mail

备注

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 


市内乘车线路

1、机场乘车线路:乘坐民航班车(首都机场—中关村)终点(即四环保福寺桥)下车,换乘641或619到海淀交通支队站下车;

2、北京西客站乘车线路:乘坐319到海淀交通支队站下车;

3、北京站乘车线路:乘坐地铁2号线到西直门站,换乘城铁13号线到知春路站下车。

附近公交站:海淀交通支队、知春里东站,具体公交路线请查询:http://www.bjbus.com/index.htm

住宿推荐

招待所名称

联系电话

位置说明

备注

物科宾馆

010-82649482

中关村南三街8号(中科院物理所院内)

宾馆旅店需要提前预订;在中关村教学大楼北对面,步行时间在15分钟之内。

天创宾馆

010-51192000

中关村南一条甲1号

宾馆旅店需要提前预订;在中关村教学大楼南对面,步行时间在10分钟之内。

康拓宾馆

010-68378288

010-62634975

中关村南一条甲4号

宾馆旅店需要提前预订;在中关村教学大楼南对面,步行时间在10分钟之内。

中科院空间会议中心

010-62582916

中关村南二条甲1号

宾馆旅店需要提前预订;在青年公寓南面,步行时间在8分钟之内。

青年公寓2号楼地下招待所

010-82680799

中关村东路80号(中科院研究生院青年公寓)

宾馆旅店需要提前预订

 

附件: