دانشکده مهندسی ﺑﺮق و ﻛﺎﻣﭙﻴﻮﺗﺮ،دانشگاه ﺗﻬﺮان،ﺗﻬﺮان، اﻳﺮان
چکیده
پیادهسازی سختافزاری شبکههای عصبی به دلیل سفارشیسازی ساختار سختافزار و حذف سربار نرمافزار سهم بهسزایی در بهینهسازی توان و تاخیر انجام محاسبات عصبی دارد. نظر به اهمیت ارتباطات بین نورونها در کارایی کلی شبکههای عصبی، در این مقاله یک همبندی نوین شبکه روی تراشه جهت مدیریت ترافیک شبکههای عصبی ارائه شده است. این همبندی، که براساس همبندی معروف dragonfly ساخته شده است، برای انجام ترافیک چندپخشی و کاهش اتصالات بهینه گشته است. این همبندی یک نمونه از همبندیهای سلسله مراتبی است و گرهها ابتدا در قالب گروههایی تقیسم شده و در داخل هر گروه، از یک گذرگاه مشترک برای ارتباط آنها استفاده میشود. سپس یک همبندی سطح بالاتر گروهها را به یکدیگر متصل میسازد. مشخصه اصلی همبندی ارائه شده قطر کم و توانایی مناسب در انجام همهپخشی است. در این شبکه با انجام زمانبندی ارتباطات در زمان طراحی، از پیچیدگی مسیریابها کم شده که این امر زمینهساز کاهش بیشتر توان و تاخیر شبکه میشود. این مقاله همبندی پیشنهادی را با چند همبندی پیشین مقایسه میکند که نتایج، نشاندهندهی کاهش چشمگیر توان مصرفی و زمان تأخیر ارسال بستهها و نیز افزایش گذردهی کلی شبکه تحت ترافیک چندپخشیِ شبکههای عصبی است.
[5] J. Hauswald, and et. al., "DjiNN and Tonic: DNN as aservice and its implicationsfor future warehouse scalecomputers," Proc.International Symposium on ComputerArchitecture, 2015.
[6] H. Esmaeilzadeh, A. Sampson, L. Ceze, and D. Burger,
"Neural acceleration for general-purpose approximateprograms,"Proc. International Symposium onMicroarchitecture, pp. 449–460, 2012.
[7] D. Vainbrand, and R. Ginosar, "Network-on-chiparchitectures for neural networks,"Proc. Network-on-chipSymposium, 2010.
[8] S. Carrillo, and et. al., "Scalable hierarchical network-on-chip architecture for spiking neural network hardwareimplementations,"IEEE Transactions on Parallel andDistributed Systems, vol. 45, no. 22, 2012.
[9] E. Painkras, and et. al., "SpiNNaker: A 1-W 18-CoreSystem-on-chip for massively-parallel neural networksimulation,"IEEE Journal of Solid-State Circuits, pp.1943-1953, 2013.
[10] A. Yasoubi, R. Hojabr, H. Takshi, M. Modarressi, andM. Daneshtalab, "CuPAN: high throughput on-chipinterconnection for neural networks,"Proc. InternationalConference of Neural Information Processing, 2015.
[11] D. Y. Kim, and et. al., "Aneural network accelerator formobile application processors," inIEEE Transactions onConsumer Electronics, vol. 61, no. 4, pp. 555-563, 2015.
[12] W. J. Dally, and B. Towles,Principles and practices ofinterconnection networks, Morgan-Kaufmann Publishers,2004.
[13] J. Kim, W. J. Dally, S. Scott, and D. Abts, "Technology-driven, highly-scalable dragonfly topology,"Proc.International Symposium on Computer Architecture, Beijing,pp. 77-88, 2008.
[14] B. Alverson, "Cray high speed net working,"Proc. 20thAnnual Symposium on High-Performance Interconnects
(HOTI), 2012.
[15] S. Haykin,Neural networks: A comprehensivefoundation, Upper Saddle River, NJ, USA: Prentice-Hall,2008.
[16] A. K. Jain, J. Mao, and K. M. Mohiuddin, "Artificialneural networks: A tutorial,"Journal of Computer, vol. 29,no. 3, pp. 31–44, 1996.
[17] W. Maass, and C. M. Bishop,Pulsed neural networks.MIT press, 2001.
[18] P. Merolla, and et. al., "A million spiking-neuronintegrated circuit with a scalable communication networkand interface,"Science, vol. 345, no. 6197, pp. 668-673,2014.
[20] A. Yasoubi, R. Hojabr, and M. Modarressi, "Power-efficient accelerator design for neural networks usingcomputation reuse," inIEEE Computer Architecture Letters,2015.
[21] Q. Zhang, T. Wang, Y. Tian, F. Yuan, and Q. Xu,
"ApproxANN: an approximate computing framework forartificial neural network,"Proc. Design, Automation & Testin Europe Conference, 2015.
[22] S. Venkataramani, A.Ranjan, K. Roy, and A.Raghunathan, "Axnn: Energy-efficient neuromorphicsystems using approximate computing,"Proc. InternationalSymposium on Low Power Electronics and Design, 2014.
[23] Y. Chen, and et. al., "Eyeriss: A spatial architecture forenergy-efficient dataflow for convolutional neural networks,"
Proc. ISSCC, pp. 262-263, 2016.
[24] T. Chen, Z. Du, N. Sun, J. Wang, C. Wu, Y. Chen, andO. Temam, "A high-throughputneural network accelerator,"
IEEE Micro, vol. 35, no. 3, pp. 24-32, 2015.
[25] A Firuzan, M. Modarressi, and M. Daneshtalab, "Areconfigurable network-on-chip for efficient implementationof neural networks,"Proc. International Symposium onReconfigurable Communication-centric Systems-on-Chip,2015.
[26] C. Sun, and et. al., "DSENT: A tool connectingemerging photonics with electroniccs for opto-electronicnetworks-on-chip modeling,"Proc. Network-on-chipSymposium, 2012.
اکبری,نسرین , دبیری,بیتا و مدرسی,مهدی . (1394). ارائه یک شبکه روی تراشه با کارآیی بالا و توان مصرفی کم برای شبکههای عصبی. (e162348). علوم رایانش و فناوری اطلاعات, 13(2), e162348
MLA
اکبری,نسرین , , دبیری,بیتا , و مدرسی,مهدی . "ارائه یک شبکه روی تراشه با کارآیی بالا و توان مصرفی کم برای شبکههای عصبی" .e162348 , علوم رایانش و فناوری اطلاعات, 13, 2, 1394, e162348.
HARVARD
اکبری نسرین, دبیری بیتا, مدرسی مهدی. (1394). 'ارائه یک شبکه روی تراشه با کارآیی بالا و توان مصرفی کم برای شبکههای عصبی', علوم رایانش و فناوری اطلاعات, 13(2), e162348.
CHICAGO
نسرین اکبری, بیتا دبیری و مهدی مدرسی, "ارائه یک شبکه روی تراشه با کارآیی بالا و توان مصرفی کم برای شبکههای عصبی," علوم رایانش و فناوری اطلاعات, 13 2 (1394): e162348,
VANCOUVER
اکبری نسرین, دبیری بیتا, مدرسی مهدی. ارائه یک شبکه روی تراشه با کارآیی بالا و توان مصرفی کم برای شبکههای عصبی. علوم رایانش و فناوری اطلاعات, 1394; 13(2): e162348.