سيحصل هاتف هواوي الرائد الجديد على "معالج عصبي" و"قلم ذكي". فيديو

10.05.2019

للشبكات العصبية بنهاية هذا العام

سيتم شحن أجهزة إنتل لتسريع أنظمة الذكاء الاصطناعي، والتي كانت إنتل تتحدث عنها منذ فترة، إلى العملاء الأوائل هذا العام. أعلنت الشركة اليوم أن معالج الشبكة العصبية من الجيل الأول (الذي يحمل الاسم الرمزي "Lake Crest") سيكون متاحًا قريبًا للطلب لمجموعة محدودة من الشركاء لمساعدتهم على تسريع جهودهم بشكل كبير في أبحاث الذكاء الاصطناعي.


تم تحسين NNP (معالج الشبكة العصبية) لحل سريع جدًا للمشكلات الرياضية المتخصصة التي تكمن وراء تطبيقات الذكاء الاصطناعي، ولا سيما الشبكات العصبية، وهي فرع شائع حاليًا من التعلم الآلي. إحدى المشاكل الرئيسية التي تواجه الشبكات العصبية المعقدة التي تحظى بشعبية كبيرة الآن هي أنها كثيفة الحساب للغاية، مما يجعل من الصعب اختبارها ونشرها بسرعة.

سيتم إصدار NNPs في البداية فقط لعدد صغير من شركاء Intel، والتي تخطط الشركة لبدء طرحها قبل نهاية هذا العام. يتم تطوير الأجهزة بالتعاون الوثيق مع فيسبوك، إحدى الشركات التي تحاول استخدام الشبكات العصبية لأغراضها الخاصة، ونحن نتحدث على وجه الخصوص عن مكافحة البريد العشوائي والأخبار "المزيفة" والمحتويات الأخرى غير المرغوب فيها من أكبر الشركات في العالم.

سيتمكن العملاء من الوصول إلى NNP من خلال خدمة Nervana من Intel. وبحسب نافين راو، نائب الرئيس والمدير العام لمجموعة منتجات إنتل، فإن الشركة تخطط لجعل الخدمة متاحة للعامة في المستقبل القريب.

ويتوقع المراقبون أن يتمتع النظام بقدرة معالجة قياسية، وهو ما يختلف عن منتجات إنتل الأخرى من الناحيتين التكنولوجية والوظيفية. تقترح إنتل أن التطور السريع لأنظمة الذكاء الاصطناعي يعني زيادة طلب العملاء على نماذج المعالجات الجديدة ذات القدرات الجديدة. تعد شركة Intel بأن وجود النوى فائقة السرعة لا ينبغي أن يؤثر على الاستقرار، ونحن نتحدث أيضًا عن تكوين البنية التحتية المناسبة.

وقال راو: "عندما تعمل على موضوع مثل الشبكات العصبية، يكون هناك أمل كبير في المعالجات العصبية". "ونحن مدروسون للغاية بشأن الإضافات والتغييرات في بنية المعالج. عندما تعمل في بيئة سريعة الخطى مثل الشبكات العصبية، فمن الضروري تتبع جميع الطلبات بسرعة وحلها للعميل."

تعمل إنتل حاليًا على ثلاثة أنواع من المعالجات العصبية، وتعد بأن يكون هناك متغير واحد على الأقل متاحًا بحلول نهاية هذا العام.

كانت الشبكات العصبية محور الاهتمام العلمي منذ الأيام الأولى لأبحاث الذكاء الاصطناعي، ولكن في السبعينيات، تم نسيانها إلى حد ما. في العقد الأخير، تمت دراسة التقنيات المتعلقة باستخدام الشبكات العصبية على مستوى برامج “التعلم العميق”. الشبكة العصبية الاصطناعية هي نموذج رياضي، بالإضافة إلى تجسيد البرامج أو الأجهزة، المبني على مبدأ تنظيم وعمل الشبكات العصبية البيولوجية - شبكات الخلايا العصبية للكائن الحي. نشأ هذا المفهوم أثناء دراسة العمليات التي تحدث في الدماغ ومحاولة نمذجة هذه العمليات. بعد تطوير خوارزميات التعلم، بدأ استخدام النماذج الناتجة لأغراض عملية: في التنبؤ بالمشكلات، والتعرف على الأنماط، وفي مشاكل التحكم، وما إلى ذلك. الشبكات العصبية الاصطناعية هي نظام من المعالجات البسيطة المتصلة والمتفاعلة (الخلايا العصبية الاصطناعية). عادة ما تكون هذه المعالجات بسيطة جدًا (خاصة بالمقارنة مع المعالجات المستخدمة في أجهزة الكمبيوتر الشخصية). يتعامل كل معالج في مثل هذه الشبكة فقط مع الإشارات التي يستقبلها بشكل دوري والإشارات التي يرسلها بشكل دوري إلى معالجات أخرى. ومع ذلك، فإن كونك متصلا بشبكة كبيرة بما فيه الكفاية مع تفاعل متحكم فيه، فإن هذه المعالجات البسيطة بشكل فردي قادرة على أداء مهام معقدة للغاية.

  • من وجهة نظر التعلم الآلي، تعد الشبكة العصبية حالة خاصة من طرق التعرف على الأنماط، والتحليل التمييزي، وطرق التجميع، وما إلى ذلك.
  • من وجهة نظر رياضية، يعد تدريب الشبكات العصبية مشكلة تحسين غير خطية متعددة المعلمات.
  • من وجهة نظر علم التحكم الآلي، يتم استخدام الشبكة العصبية في مشاكل التحكم التكيفي وكخوارزميات للروبوتات.
  • من وجهة نظر تطور تكنولوجيا الكمبيوتر والبرمجة، تعد الشبكة العصبية وسيلة لحل مشكلة التوازي الفعال.
  • ومن وجهة نظر الذكاء الاصطناعي، فإن الشبكة العصبية الاصطناعية هي أساس الحركة الفلسفية للتوصيلية والاتجاه الرئيسي في النهج الهيكلي لدراسة إمكانية بناء (نمذجة) الذكاء الطبيعي باستخدام خوارزميات الكمبيوتر.

الشبكات العصبية ليست مبرمجة بالمعنى المعتاد للكلمة، بل يتم تدريبها. تعد القدرة على التعلم إحدى المزايا الرئيسية للشبكات العصبية مقارنة بالخوارزميات التقليدية. من الناحية الفنية، يتكون التعلم من إيجاد معاملات الاتصالات بين الخلايا العصبية. أثناء عملية التدريب، تكون الشبكة العصبية قادرة على تحديد التبعيات المعقدة بين بيانات الإدخال وبيانات الإخراج، بالإضافة إلى إجراء التعميم. وهذا يعني أنه في حالة نجاح التدريب، ستكون الشبكة قادرة على إرجاع النتيجة الصحيحة استنادًا إلى البيانات المفقودة في مجموعة التدريب، بالإضافة إلى البيانات غير الكاملة و/أو "المزعجة" والمشوهة جزئيًا.

إن القدرات التنبؤية للشبكة العصبية تنبع مباشرة من قدرتها على تعميم وتسليط الضوء على التبعيات الخفية بين بيانات الإدخال والإخراج. بعد التدريب، تصبح الشبكة قادرة على التنبؤ بالقيمة المستقبلية لتسلسل معين بناءً على عدة قيم سابقة و (أو) بعض العوامل الموجودة حاليًا. تجدر الإشارة إلى أن التنبؤ ممكن فقط عندما تحدد التغييرات السابقة بالفعل، إلى حد ما، التغييرات المستقبلية. على سبيل المثال، التنبؤ بأسعار الأسهم على أساس أسعار الأسبوع الماضي قد يكون (أو لا) ناجحا، في حين أن التنبؤ بنتائج اليانصيب غدا استنادا إلى بيانات الخمسين عاما الماضية سوف يفشل بالتأكيد.

اترك تعليقك!

اليوم، يكمن الجانب العملي للقضايا المتعلقة بتطوير الذكاء الاصطناعي في تنفيذ التعلم العميق. واستنادًا إلى أنماط مختارة خصيصًا، يتم تدريب النظام، ثم يضع المعرفة المكتسبة موضع التنفيذ: قيادة السيارات، والتعرف على الصور أو الأصوات، والقيام بشيء آخر.

وسيكون كل شيء على ما يرام، فقط التعلم العميق هو الذي يتطلب تبادلًا أوليًا هائلاً للمعلومات مع قاعدة بيانات، وهو أمر صعب للغاية أو ببساطة مستحيل التنفيذ في بيئة تشغيلية. أود أن تكون الروبوتات والذكاء الاصطناعي أكثر ذكاءً، وأن تفكر كشخص، وتعتمد على التفكير الترابطي. أدت هذه الرغبة إلى ظهور محاولات لتجسيد ما يشبه الدماغ البشري في السيليكون، حيث تحاكي الدوائر الإلكترونية عمل الخلايا العصبية والمشابك العصبية.

في التاريخ الحديث، تم إنشاء تجسيد أكثر أو أقل تعقيدًا لـ "العقل البشري" في السيليكون بواسطة مهندسي شركة IBM. قدمت الشركة المعالج في عام 2011 ثم قامت بتطوير البنية لاحقًا إلى معالج مكون من 4096 نواة ومليون خلية عصبية رقمية و256 مليون مشبك رقمي قابل للبرمجة. وفي الربيع الماضي، قامت الشركة، استناداً إلى 16 معالجاً بتقنية TrueNorth مقاس 28 نانومتر، بتسليم أول كمبيوتر "معرفي" في هذه الصناعة إلى الإدارة الوطنية للأمن النووي. ومن المثير للاهتمام أن الإعلان عن IBM TrueNorth في عام 2011 جعل شركة Intel تفكر في المعالجات العصبية.

اليوم إنتل. اتضح أن الشركة بدأت في تطوير معالج عصبي خاص بها منذ ست سنوات. كان تجسيد سنوات عديدة من التطوير هو الحل الذي يحمل الاسم الرمزي Loihi (على الأرجح أننا نتحدث عن أكبر بركان تحت الماء في الولايات المتحدة - Loihi). سيتم إنتاج معالج Loihi باستخدام تقنية المعالجة 14 نانومتر وسيبدأ شحنه إلى المؤسسات الأكاديمية في النصف الأول من عام 2018.

وفقًا لشركة Intel، يجمع Loihi بين التعلم والتدريب وصنع القرار في شريحة واحدة، مما يسمح للنظام بأن يكون مستقلاً و"ذكيًا" دون الاتصال بالسحابة (بقاعدة بيانات). على سبيل المثال، تدعي شركة إنتل أنه عند التدريب باستخدام قاعدة بيانات MNIST (المعهد الوطني المختلط للمعايير والتكنولوجيا)، فإن معالج Loihi العصبي يكون أفضل بمليون مرة من الشبكات العصبية النموذجية الأخرى. في الوقت نفسه، إذا قارنا Loihi بالشبكات العصبية التلافيفية التقليدية، فإن تطوير Intel يستخدم موارد أقل بكثير أثناء التدريب، وهي قنوات الاتصال والاستهلاك وسرعة اتخاذ القرار. تدعي Intel أيضًا أن Loihi يتعلم بكفاءة أكبر بـ 1000 مرة من أنظمة الكمبيوتر التقليدية ذات الأغراض العامة.

ولسوء الحظ، لم تهتم الشركة بما يكفي لوصف المواصفات الفنية لـLoihi. تم وصف Loihi باختصار على أنه حل متعدد النواة مع شبكة داخلية. نوى Loihi هي نوى عصبية غير متزامنة (يمكن لكل منها العمل بشكل مستقل عن الآخرين). تحتوي الشبكة المعشقة على عدة درجات من التشتت، وهي هرمية وتدعم طوبولوجيا الشبكة العصبية المتكررة، حيث يمكن لكل خلية عصبية أن تتفاعل مع آلاف الخلايا العصبية الأخرى.

كما تشتمل كل نواة عصبية على آلية تعلم (محرك) يمكن برمجتها لتكييف الشبكة أثناء التشغيل. إذا قمنا بترجمة تركيبة معالج Intel Loihi إلى قدرات الدماغ البشري، فإن الحل يتضمن 130 ألف خلية عصبية و130 مليون مشبك عصبي. معالج Intel Loihi ليس ذكيًا مثل معالج IBM TrueNorth، لكنه بالتأكيد أكثر كفاءة من وجهة نظر التصنيع 14 نانومتر.

تجاوزت شركة IBM الخطوة التالية في إنشاء شريحة لأجهزة الكمبيوتر العملاقة المستقبلية - شريحة عصبية تعمل على مبدأ عمل الدماغ البشري. تكمن خصوصية هذه الشريحة في أنها قادرة على التعلم الذاتي، وتستهلك أيضًا طاقة أقل بمئات الآلاف من المرات من المعالجات الدقيقة التقليدية. يمكن للرقاقة الجديدة بالفعل تحليل المعلومات المرئية، وهو ما تؤكده نتائج الاختبار.

تعتمد معظم أجهزة الكمبيوتر الحديثة على بنية فون نيومان. وهو يعتمد على التخزين المشترك للبيانات والأوامر، بينما لا يمكن تمييزها ظاهريًا: يمكن أن تصبح نفس المعلومات بيانات أو أمر أو عنوان، اعتمادًا على كيفية الوصول إليها. إن مبدأ التشغيل هذا لبنية فون نيومان هو الذي خلق عيبًا كبيرًا - ما يسمى بعنق الزجاجة (عرض النطاق الترددي المحدود بين المعالج والذاكرة). يضطر المعالج باستمرار إلى انتظار البيانات الضرورية، لأنه لا يمكن الوصول إلى ذاكرة البرنامج وذاكرة البيانات في نفس الوقت: ففي النهاية، يتم تخزينهما على نفس الناقل.

تم حل هذه المشكلة من قبل المبرمج الأمريكي هوارد أيكن، مؤلف كتاب الهندسة المعمارية بجامعة هارفارد. وهو يختلف عن بنية فون نيومان في أن خطوط البيانات والتعليمات منفصلة فعليًا، مما يسمح للمعالج بقراءة التعليمات والوصول إلى البيانات في نفس الوقت، مما يحسن سرعة الكمبيوتر. على الرغم من ذلك، في نهاية الثلاثينيات، في المنافسة على تطوير جهاز كمبيوتر للمدفعية البحرية، التي أعلنتها حكومة الولايات المتحدة، فازت بنية فون نيومان بسبب سهولة التنفيذ.

وفي وقت لاحق، أصبح من الممكن إنشاء أنظمة هجينة تجمع بين مزايا كلا المعماريتين. لكن مع تطور البرمجة بدأت عقول العلماء تنشغل بفكرة إنشاء أنظمة عصبية صناعية: معالجات متصلة ومتفاعلة مع بعضها البعض، تعمل على مبدأ عمل الخلايا العصبية للكائن الحي كائن حي. خصوصية هذه الأنظمة هي أنها ليست مبرمجة، ولكنها مدربة.

نشأ مفهوم الشبكة العصبية الاصطناعية من دراسة عمل الشبكات العصبية البيولوجية - وهي مجموعة من الخلايا العصبية المرتبطة بالجهاز العصبي والتي تؤدي وظائف فسيولوجية محددة. وترتبط كل خلية عصبية بعدد كبير من الخلايا العصبية الأخرى؛ ويسمى مكان اتصال الخلايا العصبية مع بعضها البعض بالمشبك، وهو يعمل على نقل النبضات العصبية بين الخلايا.

كان رواد إنشاء الشبكات العصبية الاصطناعية هم الأمريكيون وارين ماكولوتش ووالتر بيتس. في أوائل الأربعينيات من القرن الماضي، اخترع العلماء نموذجًا للدماغ ينظر إلى الخلايا العصبية بشكل مبسط على أنها أجهزة تعمل على أرقام ثنائية. ومن الناحية النظرية، يمكن لشبكة "الخلايا العصبية" الإلكترونية التي اخترعواها أن تؤدي عمليات عددية أو منطقية بأي تعقيد. وضعت الأسس النظرية الجديدة بشكل أساسي لمثل هذا النموذج من الدماغ الأساس للتطور اللاحق للتقنيات العصبية، ولم تكن الخطوة التالية طويلة في المستقبل.

بالفعل في عام 1949، اقترح دونالد هيب أول خوارزمية عمل لتدريب الأنظمة العصبية الاصطناعية، وفي عام 1958، أنشأ فرانك روزنبلات أول حاسوب عصبي "مارك-1". تم بناء هذا الكمبيوتر على أساس الإدراك الحسي، وهي شبكة عصبية طورها روزنبلات قبل ثلاث سنوات.

يرتبط أحد المجالات الواعدة لتطوير بنيات أنظمة الحوسبة الجديدة بشكل أساسي ارتباطًا وثيقًا بإنشاء جيل جديد من أجهزة الكمبيوتر استنادًا إلى مبادئ معالجة المعلومات المضمنة في الشبكات العصبية الاصطناعية(نس). بدأ العمل العملي الأول على الشبكات العصبية الاصطناعية والحواسيب العصبية في الأربعينيات والخمسينيات. تُفهم الشبكة العصبية عادةً على أنها مجموعة من محولات المعلومات الأولية، تسمى "الخلايا العصبية"، والتي ترتبط بطريقة معينة ببعضها البعض عن طريق قنوات تبادل المعلومات "الاتصالات المتشابكة".

الخلايا العصبية، في جوهره، هو معالج أولي يتميز بحالات الإدخال والإخراج، ووظيفة النقل (وظيفة التنشيط) والذاكرة المحلية. تتغير حالات الخلايا العصبية أثناء التشغيل وتشكل الذاكرة قصيرة المدى للشبكة العصبية. تحسب كل خلية عصبية المجموع المرجح للإشارات التي تصل إليها عبر المشابك العصبية وتقوم بإجراء تحويل غير خطي عليها. عند إرسالها عبر المشابك العصبية، يتم مضاعفة الإشارات بعامل ترجيح معين. يحتوي توزيع معاملات الترجيح على معلومات مخزنة في الذاكرة الترابطية للشبكة العصبية. العنصر الرئيسي في تصميم الشبكة هو التدريب عليها. عند تدريب وإعادة تدريب الشبكة العصبية، تتغير معاملات الترجيح الخاصة بها. ومع ذلك، فإنها تظل ثابتة أثناء عمل الشبكة العصبية، وتشكل ذاكرة طويلة المدى.

ن يمكن أن تتكون C من طبقة واحدة أو طبقتين أو ثلاث أو أكثر، ومع ذلك، كقاعدة عامة، لا يلزم وجود أكثر من ثلاث طبقات في NN لحل المشكلات العملية.

يحدد عدد مدخلات NN بُعد المسافة الزائدة، حيث يمكن تمثيل إشارات الإدخال بنقاط أو مناطق مفرطة من نقاط متباعدة بشكل وثيق. يحدد عدد الخلايا العصبية في طبقة الشبكة عدد الطائرات الفائقة في الفضاء الزائد. إن حساب المجاميع الموزونة وإجراء تحويل غير خطي يجعل من الممكن تحديد أي جانب من المستوى الفائق معين توجد نقطة إشارة الإدخال في الفضاء الفائق.

لنأخذ المشكلة الكلاسيكية للتعرف على الأنماط: تحديد ما إذا كانت النقطة تنتمي إلى إحدى الفئتين. يتم حل هذه المشكلة بشكل طبيعي باستخدام خلية عصبية واحدة. سيسمح بتقسيم المساحة الفائقة إلى منطقتين فائقتين غير متقاطعتين وغير متداخلتين. في الواقع، تشكل إشارات الإدخال في المشكلات التي يتم حلها باستخدام الشبكات العصبية مناطق متداخلة أو متقاطعة للغاية في الفضاء الفائق، والتي لا يمكن فصلها باستخدام خلية عصبية واحدة. لا يمكن القيام بذلك إلا عن طريق رسم سطح فائق غير خطي بين المناطق. يمكن وصفه باستخدام متعدد الحدود من الرتبة n. ومع ذلك، يتم حساب دالة الطاقة ببطء شديد، وبالتالي فهي غير ملائمة جدًا للحوسبة. الخيار البديل هو تقريب السطح الفائق باستخدام الطائرات الفائقة الخطية. ومن الواضح أن دقة التقريب تعتمد على عدد الطائرات الفائقة المستخدمة، والتي بدورها تعتمد على عدد الخلايا العصبية في الشبكة. ومن هنا تنشأ الحاجة إلى تنفيذ الأجهزة لأكبر عدد ممكن من الخلايا العصبية في الشبكة. يحدد عدد الخلايا العصبية في طبقة واحدة من الشبكة دقة الوضوح. لا يمكن للشبكة العصبية ذات الطبقة الواحدة فصل الصور التابعة خطيًا. لذلك، من المهم أن تكون قادرًا على تنفيذ شبكات عصبية متعددة الطبقات في الأجهزة.

و الشبكات العصبية الاصطناعيةلها خصائص مذهلة. فهي لا تتطلب تطويرًا تفصيليًا للبرامج وتفتح إمكانية حل المشكلات التي لا توجد لها نماذج نظرية أو قواعد إرشادية تحدد خوارزمية الحل. تتمتع هذه الشبكات بالقدرة على التكيف مع التغيرات في ظروف التشغيل، بما في ذلك ظهور عوامل غير متوقعة من قبل. بطبيعتها، NNs هي أنظمة ذات مستوى عال جدا من التوازي.

في أجهزة الكمبيوتر العصبيةيتم استخدام مبادئ معالجة المعلومات التي تتم في الشبكات العصبية الحقيقية. تسمح أدوات الحوسبة الجديدة هذه ذات البنية غير التقليدية بمعالجة عالية الأداء لمصفوفات المعلومات واسعة النطاق. على عكس أنظمة الحوسبة التقليدية، تتيح أجهزة كمبيوتر الشبكة العصبية، المشابهة للشبكات العصبية، معالجة تدفقات المعلومات من الإشارات المنفصلة والمستمرة بسرعة أكبر، وتحتوي على عناصر حوسبة بسيطة وبدرجة عالية من الموثوقية تسمح بحل مشاكل المعلومات الخاصة بمعالجة البيانات، بينما توفير طريقة لإعادة الهيكلة الذاتية لبيئة الحوسبة اعتمادًا على الحلول التي تم الحصول عليها.

بشكل عام، مصطلح "الكمبيوتر العصبي" يعني حاليًا فئة واسعة إلى حد ما من أجهزة الكمبيوتر. يحدث هذا لسبب بسيط وهو أنه من الناحية الرسمية، يمكن اعتبار أي تطبيق جهازي لخوارزمية الشبكة العصبية حاسوبًا عصبيًا، بدءًا من نموذج بسيط للخلية العصبية البيولوجية وحتى نظام التعرف على الأحرف أو الأهداف المتحركة. الحواسيب العصبية ليست حواسيب بالمعنى التقليدي للكلمة. في الوقت الحالي، لم تصل التكنولوجيا بعد إلى مستوى التطور الذي يمكن عنده الحديث عن حاسوب عصبي متعدد الأغراض (والذي سيكون أيضًا ذكاءً اصطناعيًا). تعد الأنظمة ذات القيم الثابتة لمعاملات الترجيح بشكل عام هي الأكثر تخصصًا في عائلة الشبكات العصبية. تعد شبكات التعلم أكثر مرونة في التعامل مع مجموعة متنوعة من المشكلات التي تحلها. وبالتالي، فإن بناء الكمبيوتر العصبي هو في كل مرة المجال الأوسع للأنشطة البحثية في مجال تنفيذ الأجهزة لجميع عناصر الشبكة العصبية تقريبًا.

في بداية القرن الحادي والعشرين، على عكس الأربعينيات والخمسينيات من القرن الماضي، هناك حاجة عملية موضوعية لتعلم كيفية صنع أجهزة الكمبيوتر العصبية، أي. من الضروري تنفيذ عدد كبير جدًا من الخلايا العصبية العاملة المتوازية في الأجهزة، مع ملايين من الوصلات العصبية الثابتة أو المتوازية المعدلة تكيفيًا، مع عدة طبقات متصلة بالكامل من الخلايا العصبية. وفي الوقت نفسه، تقترب تكنولوجيا الإلكترونيات المتكاملة من استنفاد قدراتها المادية. لم يعد من الممكن تقليل الأبعاد الهندسية للترانزستورات ماديًا: مع أحجام يمكن تحقيقها تقنيًا تصل إلى 1 ميكرون أو أقل، تظهر ظواهر فيزيائية غير مرئية مع أحجام كبيرة من العناصر النشطة - تبدأ تأثيرات الحجم الكمي في إحداث تأثير قوي. تتوقف الترانزستورات عن العمل كترانزستورات.

لتنفيذ أجهزة الشبكة العصبية، يلزم وجود وسيط تخزين جديد. يمكن أن يكون مثل هذا الناقل الجديد للمعلومات ضوء، والتي ستؤدي بشكل كبير، بعدة أوامر من حيث الحجم، إلى زيادة الأداء الحسابي.

التقنية الوحيدة لتطبيق أجهزة الشبكات العصبية التي يمكن أن تحل محل البصريات والإلكترونيات الضوئية في المستقبل هي تكنولوجيا النانو، قادر على توفير ليس فقط أقصى درجة ممكنة ماديًا من تكامل العناصر الكمومية دون الجزيئية بأقصى سرعة ممكنة ماديًا، ولكن أيضًا البنية ثلاثية الأبعاد الضرورية جدًا لتنفيذ الأجهزة للشبكة العصبية.

لفترة طويلة، كان يعتقد أن الحواسيب العصبية فعالة في حل ما يسمى بالمشكلات غير القابلة للشكل وغير الرسمية المرتبطة بالحاجة إلى تضمين عملية التعلم باستخدام مواد تجريبية حقيقية في خوارزمية حل المشكلات. بادئ ذي بدء، تضمنت هذه المشكلات مهمة تقريب شكل معين من الوظائف التي تأخذ مجموعة منفصلة من القيم، أي. مشكلة التعرف على الأنماط.

حاليا يتم إضافة فئة من المشاكل إلى هذا الصنف من المشاكل، والتي في بعض الأحيان لا تتطلب التدريب على المواد التجريبية، ولكنها ممثلة بشكل جيد في الأساس المنطقي للشبكة العصبية. وتشمل هذه المهام ذات التوازي الطبيعي الواضح لمعالجة الإشارات ومعالجة الصور وما إلى ذلك.. يمكن تأكيد الرأي القائل بأن الحواسيب العصبية في المستقبل ستكون أكثر كفاءة من البنى الأخرى، على وجه الخصوص، من خلال التوسع الحاد في السنوات الأخيرة في فئة المشاكل الرياضية العامة التي يتم حلها على أساس منطقي للشبكة العصبية. وتشمل هذه، بالإضافة إلى تلك المذكورة أعلاه، مشاكل حل المعادلات الجبرية الخطية وغير الخطية والمتباينات عالية الأبعاد؛ أنظمة المعادلات التفاضلية غير الخطية. المعادلات التفاضلية الجزئية؛ مشاكل التحسين وغيرها من المشاكل.

نرحب بقرائنا في صفحات مدونة iCover! في المؤتمر الدولي لدوائر الحالة الصلبة (ISSCC-2016)، الذي عقد في سان فرانسيسكو في أوائل فبراير، عرضت مجموعة من المطورين من معهد ماساتشوستس للتكنولوجيا (معهد ماساتشوستس للتكنولوجيا) نموذجًا أوليًا عمليًا للجيل الجديد من شريحة Eyeriss، والتي تم إنشاؤها كنموذج مفاهيمي الحل الذي يسمح بإعادة إنشاء قدرات خوارزميات الشبكة العصبية في مجموعة واسعة من الأجهزة منخفضة الطاقة.


أحد الأسباب الموضوعية لعدم حصول الشبكات العصبية الاصطناعية على التطوير المناسب في هواتفنا الذكية أو الأجهزة اللوحية هو عدم وجود مصدر طاقة مدمج ذو طاقة كافية. بعد كل شيء، فإن ما يسمى بأنظمة الذكاء الاصطناعي "الشبيهة بالدماغ"، "الشبيهة بالدماغ"، على الأقل بالشكل الذي تمثله التقنيات الحديثة، تعتمد في عملها على معالجات قوية متعددة النواة، تستهلك كمية لا تصدق من الطاقة بالمقارنة مع دماغنا. ولم يكن من الممكن تصور مثل هذه الحلول على مستوى الأجهزة من فئة المستخدم، على الأقل حتى وقت قريب. في الوقت نفسه، كانت فكرة "تصغير" الذكاء الاصطناعي تثير عقول المطورين لفترة طويلة، وكما اتضح، فإنها تؤتي ثمارًا ملموسة بالفعل.

كانت الشبكات العصبية محور الاهتمام العلمي منذ الأيام الأولى لأبحاث الذكاء الاصطناعي، ولكن في السبعينيات، تم نسيانها إلى حد ما. في العقد الأخير، تمت دراسة التقنيات المتعلقة باستخدام الشبكات العصبية على مستوى برامج “التعلم العميق”.

"للتعلم العميق العديد من التطبيقات، مثل التعرف على الأشياء، أو التعرف على الكلام، أو التعرف على الوجه"، كما لاحظت فيفيان سزي وإيمانويل لاندسمان، الأستاذ المساعد في الهندسة الكهربائية وعلوم الكمبيوتر في معهد ماساتشوستس للتكنولوجيا والذي طورت مجموعته شريحة جديدة. "الآن، أصبحت الشبكات العصبية معقدة للغاية وتعمل بشكل أساسي على شرائح قوية. تخيل أنك قادر على جلب هذه الوظيفة إلى هاتفك المحمول أو جهازك المدمج ثم معالجة كميات هائلة من المعلومات دون استخدام اتصال Wi-Fi. ستؤدي معالجة كميات كبيرة من البيانات على هاتفك الذكي إلى تجنب التأخير الذي يحدث بسبب تبادل البيانات مع الشبكة، والذي بدوره سيسمح للعديد من التطبيقات بالعمل بكفاءة أكبر. بالإضافة إلى ذلك، سيوفر الحل المقترح جودة جديدة لحماية المعلومات السرية.

يتم تنفيذ الشبكات العصبية عادةً على وحدات معالجة الرسومات متعددة النواة (GPUs). وفي المؤتمر الدولي في سان فرانسيسكو، قدم باحثون من معهد ماساتشوستس للتكنولوجيا شريحة جديدة مكونة من 168 نواة مصممة لتنفيذ خوارزميات الذكاء الاصطناعي القائمة على الشبكات العصبية. بالمقارنة مع وحدة معالجة الرسومات المحمولة (لم يتم تحديد أي منها)، أظهر المعالج كفاءة أكبر بعشر مرات، مما يسمح باستخدام الجهاز المحمول الخاص بالمستخدم لتشغيل خوارزميات الذكاء الاصطناعي القوية محليًا دون الحاجة إلى إرسال البيانات إلى السحابة للمعالجة. تنعكس النقاط الرئيسية للتطوير في البيان الصحفي لمعهد ماساتشوستس للتكنولوجيا بتاريخ 3 فبراير 2016.

يمكن للرقاقة الجديدة، التي أطلق عليها المطورون اسم "Eyeriss"، أن تجد تطبيقًا واسعًا في إنترنت الأشياء، والإلكترونيات القابلة للارتداء، والمركبات ذاتية القيادة، ومعدات التصنيع، وحتى في الزراعة، مما يساعد في حل المشكلات الحالية وتنسيقها. ومع وجود خوارزميات الذكاء الاصطناعي، ستتمكن الأجهزة المحمولة من اتخاذ القرارات على المستوى المحلي، مما يوفر للمستخدم نتيجة جاهزة كدليل للعمل، بدلا من مجموعة من البيانات "الخام" من الإنترنت. وبطبيعة الحال، أحد تطبيقات الشبكات العصبية المحلية هو استخدامها في إنشاء روبوتات مستقلة لمجموعة واسعة من الأغراض.

تقسيم وحكم

عادةً ما تحتوي الشبكات العصبية على بنية متعددة الطبقات وتحتوي كل طبقة على عدد كبير من عقد المعالجة. في المرحلة الأولية من المعالجة، تصل البيانات ويتم توزيعها بين العقد في الطبقة السفلى. بعد معالجة البيانات المستلمة بواسطة كل عقدة، يتم نقل النتيجة للمعالجة إلى عقد الطبقة التالية. عند إخراج الطبقة الأخيرة، يتم تشكيل نتيجة حل المشكلة. وبناءً على ذلك، فإن حل المشكلات واسعة النطاق باستخدام الخوارزمية الموصوفة سيتطلب موارد حاسوبية كبيرة.

المتطلبات التي حددها المطورون أنفسهم في البداية للرقاقة وضعتها ضمن إطار صارم إلى حد ما: من ناحية، يجب أن يكون الحل موفرًا للطاقة، ومن ناحية أخرى، يجب أن يعمل مع كتل بسيطة من المعلومات. وأخيرًا، يجب أن تكون الشريحة قادرة على محاكاة أنواع مختلفة من الشبكات العصبية، مع مراعاة المهام الحالية الموكلة إليها. تم تنفيذ كل هذه المتطلبات بنجاح في معالج Eyeriss.

الشريحة، التي تم تطويرها في مختبر معهد ماساتشوستس للتكنولوجيا، عبارة عن شبكة عصبية تم تشكيلها بالفعل، مترجمة على مستوى معالج 168 نواة، والتي يمكن دمجها في الأجهزة المحمولة في المستقبل.

إن مفتاح كفاءة Eyeriss هو تقليل وتيرة الاتصال بين النوى وبنوك الذاكرة الخارجية، وهي عملية مرتبطة باستهلاك مرتفع للطاقة وتكاليف الوقت. في حين أن نوى وحدة معالجة الرسومات التقليدية تشترك في بنك ذاكرة مشترك، فإن كل نواة من نواة Eyeriss لها ذاكرتها الخاصة. بالإضافة إلى ذلك، تخضع البيانات لإجراء ضغط قبل إرسالها إلى النوى المجاورة.

ميزة أخرى للخوارزمية المطبقة هي قدرة النوى على "التواصل" مع بعضها البعض مباشرة، متجاوزة "الوسيط" في شكل ناقل ذاكرة النظام. هذه ميزة مهمة لمحاكاة تشغيل الشبكة العصبية التلافيفية (CNN). يتم تنفيذ جميع الأعمال الحسابية المطلوبة للتعرف على الصور والكلام محليًا في Eyeriss، دون الحاجة إلى الوصول إلى موارد الشبكة، مما يسمح للجهاز بالعمل بكفاءة حتى في حالة عدم وجود شبكة خارجية.

أخيرًا، هناك ميزة أخرى لـ Eyeriss وهي مبدأ التوزيع "الذكي" لمهام الحوسبة الفردية بين النوى في إطار مشكلة واحدة يتعين حلها. في ذاكرتها المحلية، يجب على النواة تخزين ليس فقط البيانات التي تتم معالجتها بواسطة العقد، ولكن أيضًا البيانات التي تصف العقد نفسها. من أجل ضمان أقصى أداء لعملية معالجة البيانات، وكذلك تحميل Eyeriss بأقصى قدر من البيانات من الذاكرة الرئيسية، تم تحسين خوارزمية توزيع كلا النوعين من البيانات بواسطة شريحة مصممة خصيصًا لهذا الغرض في الوقت الفعلي مع الأخذ في الاعتبار ميزات الشبكة العصبية الحالية.

في المؤتمر الدولي لدوائر الحالة الصلبة في سان فرانسيسكو، أظهر فريق التطوير، باستخدام إمكانيات شريحة Eyeriss على مستوى "المستخدم"، تنفيذ خوارزمية التعرف على الأنماط داخل شبكة عصبية محلية. تم تنفيذ مهمة مماثلة، المذكورة في البيان الصحفي، في وقت سابق، ولكن على مستوى المشاريع الحكومية لأحدث الشبكات العصبية التي تم إنشاؤها.

وقال مايك بولي، نائب الرئيس الأول لمختبر ابتكارات المعالجات المحمولة في سامسونج: "يعد هذا العمل مهمًا لأنه يوضح مدى قدرة معالجات التعلم العميق المدمجة على توفير الطاقة والأداء الأمثل المطلوب ونقل الحوسبة المعقدة من السحابة إلى الأجهزة المحمولة". "بالإضافة إلى مجموعة مبتكرة من حلول الأجهزة، يوضح بحث معهد ماساتشوستس للتكنولوجيا بوضوح كيف يمكن جعل النواة المضمنة مفيدة لمطوري التطبيقات باستخدام بنية الشبكة القياسية لـ AlexNet وCaffe."

تم توفير التمويل لمشروع Eyeriss، بدءًا من إنشاء وحدة مقرها في مختبر معهد ماساتشوستس للتكنولوجيا، جزئيًا من قبل وكالة الدفاع الأمريكية DARPA. وليس من المستغرب أن أول من رد على الإعلان عن المعالج بمادة تحريرية مبهرة كان المحلل العسكري الشهير باتريك تاكر. ويعتقد أن معالجات Eyeriss الجديدة المثبتة على الأجهزة المحمولة للجنود الأمريكيين ستكون قادرة على حل مشاكل الحوسبة المعقدة المرتبطة بمعالجة كميات هائلة من المعلومات دون الاتصال بشبكة مشتركة.

وبالتالي، فإن القوات الجوية الأمريكية تتلقى حاليا ما يصل إلى 1500 ساعة من الفيديو عالي الدقة وما يصل إلى 1500 صورة فائقة الدقة كل يوم من طائرات بدون طيار تحلق فوق أفغانستان. علاوة على ذلك، يجب تحليل كل هذا التدفق اللامتناهي من المعلومات بصريًا من قبل المشغلين بالطريقة القديمة، نظرًا لأن برامج الكمبيوتر الحالية غير قادرة على التمييز بين فلاح يمشي على طريق جبلي بعصا وإرهابي يحمل قاذفة صواريخ موجهة. . لحل مثل هذه المشاكل، بدأ في البداية إنشاء أساليب التعلم الآلي القائمة على التعلم التمثيلي.

تعتبر معالجات Eyeriss مثالية للتركيب على الطائرات العسكرية بدون طيار، لأنها ستسمح بالمعالجة الذكية لمجموعة من الصور ومقاطع الفيديو باستخدام تقنيات التعلم العميق مباشرة على متن الطائرة. في هذه الحالة، يمكن إرسال البيانات المفيدة التي تم فحصها مباشرة إلى الوحدات القتالية العاملة في المنطقة المحددة، متجاوزة مركز تحليل المعلومات التشغيلية.

ملخص موجز

خلال التجارب، أظهرت شريحة Eyeriss مستوى من كفاءة استخدام الطاقة أعلى بعشر مرات من مستوى رقائق الرسومات المحمولة الحديثة. في الوقت نفسه، بمساعدتها، أصبح من الممكن من الناحية التكنولوجية ضمان تشغيل خوارزميات الذكاء الاصطناعي على الأجهزة ذات الأحجام المدمجة - من الهواتف الذكية والأجهزة اللوحية إلى الأجهزة الإلكترونية القابلة للارتداء. يتم تقليل التأخيرات التي تحدثها الشبكات أثناء تبادل البيانات لمثل هذا المعالج، حيث يمكن للرقاقة إجراء معظم العمليات الحسابية محليًا. واستنادا إلى Eyeriss، سيكون من الممكن إنشاء ليس فقط جميع أنواع "الأجهزة الذكية"، ولكن أيضا الروبوتات التي تتمتع بدرجة معينة من الاستقلالية في صنع القرار.

لم يحدد مطورو معهد ماساتشوستس للتكنولوجيا بعد فترات زمنية محددة ستتمكن خلالها Eyeriss من التحول إلى منتج تجاري والكشف عن قدراتها بالكامل على مستوى المستهلك. إن مشاركة كبار المتخصصين في NVIDIA في التطوير والاهتمام الشديد للباحثين المسؤولين من Samsung يثير بعض التفاؤل.