الشبكات العصبية والتعلم العميق: المستقبل قريب. كيف تبدو الشبكات العصبية العميقة ولماذا تتطلب الكثير من الذاكرة؟

09.05.2019

ما هو التعلم العميق؟ 3 مارس، 2016

يتحدثون اليوم عن تقنيات التعلم العميق العصرية كما لو كان المن من السماء. ولكن هل يفهم المتحدثون ما هو حقًا؟ لكن هذا المفهوم ليس له تعريف رسمي، وهو يجمع بين مجموعة كاملة من التقنيات. في هذا المنشور، أريد أن أشرح بشكل شائع قدر الإمكان، وبشكل أساسي، ما وراء هذا المصطلح، ولماذا يحظى بشعبية كبيرة وما تقدمه لنا هذه التقنيات.


باختصار، هذا المصطلح الجديد (التعلم العميق) يدور حول كيفية تجميع تجريد (تمثيل) أكثر تعقيدًا وأعمق من بعض التجريدات البسيطة. على الرغم من حقيقة أنه حتى أبسط التجريدات يجب أن يتم تجميعها بواسطة الكمبيوتر نفسه، وليس بواسطة شخص. أولئك. لم يعد الأمر يقتصر على التعلم فحسب، بل يتعلق بالتعلم التلوي. بالمعنى المجازي، يجب على الكمبيوتر نفسه أن يتعلم أفضل السبل للتعلم. وفي الواقع، هذا هو بالضبط ما يعنيه مصطلح "عميق". يتم تطبيق هذا المصطلح دائمًا تقريبًا على الشبكات العصبية الاصطناعية التي تستخدم أكثر من طبقة مخفية، لذا فإن كلمة "عميق" رسميًا تعني أيضًا بنية شبكة عصبية أعمق.

هنا في شريحة التطوير، يمكنك أن ترى بوضوح مدى اختلاف التعلم العميق عن التعلم العادي. أكرر، الأمر الفريد في التعلم العميق هو أن الآلة تجد الميزات بنفسها(السمات الرئيسية لشيء يسهل من خلاله فصل فئة واحدة من الكائنات عن أخرى) و يقوم بتركيب هذه العلامات بشكل هرمي: حيث يتم دمج العلامات الأبسط في علامات أكثر تعقيدًا. أدناه سننظر إلى هذا بمثال.

دعونا نلقي نظرة على مثال لمشكلة التعرف على الصور: كيف كان الأمر من قبل - قمنا بحشو صورة ضخمة (1024 × 768 - حوالي 800000 قيمة رقمية) في شبكة عصبية عادية بطبقة واحدة وشاهدنا الكمبيوتر يموت ببطء، ويختنق من النقص الذاكرة وعدم القدرة على فهم أي وحدات البكسل مهمة للتعرف عليها وأيها غير مهمة. ناهيك عن فعالية هذه الطريقة. هذه هي بنية هذه الشبكة العصبية العادية (السطحية).

ثم استمعوا إلى كيفية تمييز الدماغ للملامح، وهو يفعل ذلك بطريقة هرمية صارمة، وقرروا أيضًا استخراج هيكل هرمي من الصور. للقيام بذلك، كان من الضروري إضافة المزيد من الطبقات المخفية (الطبقات الموجودة بين المدخلات والمخرجات، بشكل تقريبي، مراحل تحويل المعلومات) إلى الشبكة العصبية. على الرغم من أنهم قرروا القيام بذلك على الفور تقريبًا عندما تم اختراع الخلايا العصبية، فقد تم تدريب الشبكات ذات الطبقة المخفية الواحدة بنجاح. أولئك. من حيث المبدأ، كانت الشبكات العميقة موجودة منذ فترة طويلة تقريبًا مثل الشبكات العادية، إلا أننا لم نتمكن من تدريبها. ما الذي تغير؟

في عام 2006، قام العديد من الباحثين المستقلين بحل هذه المشكلة مرة واحدة (إلى جانب ذلك، تم تطوير قدرات الأجهزة بالفعل بما فيه الكفاية، ظهرت بطاقات فيديو قوية للغاية). هؤلاء الباحثون هم: جيفري هينتون (وزميله رسلان سالاخوتينوف) بتقنية التدريب المسبق لكل طبقة من الشبكة العصبية باستخدام آلة بولتزمان المقيدة (سامحوني على هذه المصطلحات...)، ويان ليكون مع الشبكات العصبية التلافيفية، و يوشواي بنجيو مع أجهزة التشفير التلقائي المتتالية. تم تجنيد أول اثنين على الفور من قبل جوجل وفيسبوك، على التوالي. وهنا محاضرتان: الأولى - هينتون، الأخرى - لياكونا، حيث يخبرون ما هو التعلم العميق. لا أحد يستطيع أن يخبرك عن هذا أفضل منهم. آخر بارد محاضرةشميدهوبر عن تطور التعلم العميق، وهو أيضًا أحد ركائز هذا العلم. ولدى هينتون أيضًا دورة ممتازة عن الخلايا العصبية.

ما الذي يمكن أن تفعله الشبكات العصبية العميقة الآن؟ إنهم قادرون على التعرف على الأشياء ووصفها، ويمكن للمرء أن يقول إنهم "يفهمون" ما هي. يتعلق الأمر بالتعرف على المعاني.

ما عليك سوى مشاهدة هذا الفيديو للتعرف في الوقت الفعلي على ما تراه الكاميرا.

كما قلت سابقًا، فإن تقنيات التعلم العميق هي مجموعة كاملة من التقنيات والحلول. لقد قمت بالفعل بإدراج العديد منها في الفقرة أعلاه، ومثال آخر هو الشبكات المتكررة، والتي يتم استخدامها بدقة في الفيديو أعلاه لوصف ما تراه الشبكة. لكن الممثل الأكثر شعبية لهذه الفئة من التقنيات لا يزال هو شبكات LyaKun العصبية التلافيفية. لقد تم بناؤها عن طريق القياس مع مبادئ عمل القشرة البصرية لدماغ القطة، حيث تم اكتشاف ما يسمى بالخلايا البسيطة التي تستجيب للخطوط المستقيمة بزوايا مختلفة، والخلايا المعقدة - التي يرتبط تفاعلها بالتنشيط لمجموعة معينة من الخلايا البسيطة. على الرغم من أن لاكون نفسه، بصراحة، لم يركز على علم الأحياء، فقد حل مشكلة محددة (انظر محاضراته)، ثم تزامن كل ذلك.

بكل بساطة، الشبكات التلافيفية هي شبكات حيث العنصر الهيكلي الرئيسي للتعلم هو مجموعة (مجموعة) من الخلايا العصبية (عادة 3 × 3، 10 × 10 مربع، وما إلى ذلك)، وليس واحدة فقط. وعلى كل مستوى من مستويات الشبكة، يتم تدريب العشرات من هذه المجموعات. تعثر الشبكة على مجموعات من الخلايا العصبية التي تزيد من المعلومات حول الصورة. في المستوى الأول، تستخرج الشبكة العناصر الأساسية والبسيطة من الناحية الهيكلية للصورة - يمكن للمرء أن يقول وحدات البناء: الحدود، والسكتات الدماغية، والقطاعات، والتناقضات. في الأعلى توجد بالفعل مجموعات مستقرة من عناصر المستوى الأول، وهكذا في أعلى السلسلة. أود مرة أخرى أن أؤكد بشكل منفصل على السمة الرئيسية للتعلم العميق: فالشبكات نفسها تشكل هذه العناصر وتقرر أي منها أكثر أهمية وأيها ليس كذلك. يعد هذا أمرًا مهمًا لأنه في مجال التعلم الآلي، يعد إنشاء الميزات أمرًا أساسيًا ونحن الآن ننتقل إلى المرحلة التي يتعلم فيها الكمبيوتر نفسه إنشاء الميزات واختيارها. تحدد الآلة نفسها تسلسلًا هرميًا للميزات الإعلامية.

لذلك، أثناء عملية التعلم (عرض مئات الصور)، تشكل الشبكة التلافيفية تسلسلاً هرميًا للميزات ذات مستويات العمق المختلفة. في المستوى الأول، يمكنهم تسليط الضوء، على سبيل المثال، على هذه العناصر (التي تعكس التباين والزاوية والحدود وما إلى ذلك).


في المستوى الثاني، سيكون هذا بالفعل عنصرا من عناصر المستوى الأول. في الثالث - من الثاني. يجب أن تفهم أن هذه الصورة مجرد عرض توضيحي. الآن في الاستخدام الصناعي، تحتوي هذه الشبكات على من 10 إلى 30 طبقة (مستويات).

وبعد تدريب هذه الشبكة، يمكننا استخدامها للتصنيف. بعد إعطاء بعض الصور كمدخلات، تعمل مجموعات من الخلايا العصبية في الطبقة الأولى عبر الصورة، وتنشط في تلك الأماكن التي يوجد فيها عنصر من الصورة يتوافق مع عنصر معين. أولئك. تقوم هذه الشبكة بتحليل الصورة إلى أجزاء - أولاً إلى خطوط، وخطوط، وزوايا ميل، ثم إلى أجزاء أكثر تعقيدًا، وفي النهاية تتوصل إلى نتيجة مفادها أن الصورة من هذا النوع من مجموعة العناصر الأساسية هي وجه.

المزيد عن الشبكات التلافيفية -

من هذه المقالة سوف تتعلم ما هو التعلم العميق. تحتوي المقالة أيضًا على العديد من الموارد التي يمكنك استخدامها لإتقان هذا المجال.

في العالم الحديث، من الرعاية الصحية إلى التصنيع، يتم استخدام التعلم العميق في كل مكان. تتجه الشركات إلى هذه التقنية لحل المشكلات المعقدة مثل التعرف على الكلام والأشياء والترجمة الآلية وما إلى ذلك.

أحد الإنجازات الأكثر إثارة للإعجاب هذا العام هو فوز AlphaGo على أفضل لاعب Go في العالم. بالإضافة إلى لعبة Go، تغلبت الآلات على الأشخاص في ألعاب أخرى: لعبة الداما، والشطرنج، والريفرسي، وجيوباردي.

قد لا يبدو الفوز بلعبة لوحية قابلاً للتطبيق في حل مشكلات الحياة الواقعية، لكن هذا ليس هو الحال على الإطلاق. تم تصميم Go بحيث لا يهزم بواسطة الذكاء الاصطناعي. للقيام بذلك، سيحتاج إلى تعلم شيء واحد مهم لهذه اللعبة - الحدس البشري. الآن، بمساعدة هذا التطور، أصبح من الممكن حل العديد من المشكلات التي لم يكن من الممكن الوصول إليها بواسطة الكمبيوتر من قبل.

من الواضح أن التعلم العميق لا يزال بعيدًا عن الكمال، لكنه يقترب بالفعل من أن يكون مفيدًا تجاريًا. على سبيل المثال، هذه السيارات ذاتية القيادة. تحاول شركات معروفة مثل Google وTesla وUber بالفعل تقديم سيارات ذاتية القيادة في شوارع المدن.

وتتوقع فورد زيادة كبيرة في حصة المركبات ذاتية القيادة بحلول عام 2021. كما تمكنت الحكومة الأمريكية من وضع مجموعة من قواعد السلامة لهم.

ما هو التعلم العميق؟

للإجابة على هذا السؤال، عليك أن تفهم كيفية تفاعلها مع التعلم الآلي والشبكات العصبية والذكاء الاصطناعي. للقيام بذلك، نستخدم طريقة التصور باستخدام دوائر متحدة المركز:

الدائرة الخارجية هي الذكاء الاصطناعي بشكل عام (مثل أجهزة الكمبيوتر). أبعد قليلاً هو التعلم الآلي، وفي المنتصف يوجد التعلم العميق والشبكات العصبية الاصطناعية.

بشكل تقريبي، التعلم العميق هو ببساطة اسم أكثر ملاءمة للشبكات العصبية الاصطناعية. تشير كلمة "عميق" في هذه العبارة إلى درجة تعقيد (عمق) الشبكة العصبية، والتي غالبًا ما تكون سطحية تمامًا.

استلهم مبتكرو الشبكة العصبية الأولى من بنية القشرة الدماغية. الطبقة الأساسية للشبكة، الإدراك الحسي، هي في الأساس النظير الرياضي للخلية العصبية البيولوجية. وكما هو الحال في الدماغ، يمكن أن تظهر الإدراكات الحسية المتقاطعة مع بعضها البعض في الشبكة العصبية.

الطبقة الأولى من الشبكة العصبية تسمى طبقة الإدخال. تتلقى كل عقدة في هذه الطبقة بعض المعلومات كمدخلات وتنقلها إلى العقد اللاحقة في الطبقات الأخرى. في أغلب الأحيان، لا توجد اتصالات بين عقد طبقة واحدة، والعقدة الأخيرة من السلسلة تنتج نتيجة الشبكة العصبية.

تسمى العقد الموجودة في المنتصف بالعقد المخفية لأنها لا تحتوي على اتصالات بالعالم الخارجي مثل عقد الإخراج والإدخال. يتم استدعاؤها فقط عند تنشيط الطبقات السابقة.

التعلم العميق هو في الأساس تقنية تدريب على الشبكة العصبية تستخدم طبقات عديدة لحل المشكلات المعقدة (مثل التعرف على الكلام) باستخدام الأنماط. في الثمانينات، كانت معظم الشبكات العصبية أحادية الطبقة بسبب التكلفة العالية وقدرات البيانات المحدودة.

إذا اعتبرنا التعلم الآلي فرعًا أو نوعًا مختلفًا من الذكاء الاصطناعي، فإن التعلم العميق هو نوع متخصص من هذا الفرع.

يستخدم التعلم الآلي ذكاء الكمبيوتر الذي لا يقدم الإجابة على الفور. وبدلاً من ذلك، سيتم تشغيل التعليمات البرمجية على بيانات الاختبار، واستنادًا إلى صحة نتائجها، سيتم ضبط تقدمها. ولنجاح هذه العملية، يتم عادةً استخدام مجموعة متنوعة من التقنيات والبرمجيات الخاصة وعلوم الكمبيوتر التي تصف الأساليب الثابتة والجبر الخطي.

أساليب التعلم العميق

تنقسم أساليب التعلم العميق إلى نوعين رئيسيين:

  • التدريب المدروس
  • تعليم غير مشرف عليه

تستخدم الطريقة الأولى بيانات مختارة خصيصًا لتحقيق النتيجة المرجوة. ويتطلب الأمر الكثير من التدخل البشري، لأنه يجب اختيار البيانات يدويًا. ومع ذلك، فهو مفيد للتصنيف والانحدار.

تخيل أنك مالك شركة وتريد تحديد تأثير المكافآت على مدة عقود مرؤوسيك. مع البيانات التي تم جمعها مسبقًا، سيكون أسلوب التعلم الخاضع للإشراف أمرًا لا غنى عنه وفعالًا للغاية.

الطريقة الثانية لا تتضمن إجابات وخوارزميات عمل معدة مسبقًا. ويهدف إلى تحديد الأنماط المخفية في البيانات. يتم استخدامه عادةً لمهام التجميع والارتباط، مثل تجميع العملاء حسب السلوك. يعد "إنهم يختارون أيضًا بهذا" على Amazon أحد أشكال مهمة الارتباط.

في حين أن طريقة التعلم الخاضع للإشراف غالبًا ما تكون مريحة للغاية، إلا أن الإصدار الأكثر تعقيدًا لا يزال أفضل. لقد أثبت التعلم العميق أنه شبكة عصبية لا تتطلب إشرافًا بشريًا.

أهمية التعلم العميق

استخدمت أجهزة الكمبيوتر التكنولوجيا منذ فترة طويلة للتعرف على ميزات معينة في الصورة. ومع ذلك، كانت النتائج بعيدة كل البعد عن النجاح. كان للرؤية الحاسوبية تأثير لا يصدق على التعلم العميق. هاتان التقنيتان هما اللتان تحلان حاليًا جميع مشكلات التعرف.

وعلى وجه الخصوص، نجح فيسبوك في التعرف على الوجوه في الصور الفوتوغرافية باستخدام التعلم العميق. وهذا ليس تحسنا بسيطا في التكنولوجيا، ولكنه نقطة تحول تغير كل المعتقدات السابقة: "يمكن لأي شخص أن يحدد باحتمال 97.53% ما إذا كان نفس الشخص يظهر في صورتين مختلفتين. ويمكن للبرنامج الذي طوره فريق فيسبوك القيام بذلك باحتمال 97.25%، بغض النظر عن الإضاءة أو ما إذا كان الشخص ينظر مباشرة إلى الكاميرا أو يتجه نحوها بشكل جانبي.

لقد شهد التعرف على الكلام أيضًا تغييرات كبيرة. قام فريق بايدو، أحد محركات البحث الرائدة في الصين، بتطوير نظام للتعرف على الكلام تمكن من التفوق على البشر في سرعة ودقة كتابة النص على الأجهزة المحمولة. باللغتين الإنجليزية والماندرين.

الأمر المثير للاهتمام بشكل خاص هو أن كتابة شبكة عصبية مشتركة للغتين مختلفتين تمامًا لم تتطلب الكثير من العمل: "تاريخيًا، رأى الناس الصينية والإنجليزية لغتين مختلفتين تمامًا، لذلك كان مطلوبًا اتباع نهج مختلف لكل منهما"، كما يقول. رئيس مركز بايدو للأبحاث، أندرو نج. "لقد أصبحت خوارزميات التعلم الآن معممة للغاية بحيث يمكنك ذلك فقطيتعلم."

تستخدم Google التعلم العميق لإدارة الطاقة في مراكز بيانات الشركة. لقد تمكنوا من تقليل تكاليف موارد التبريد بنسبة 40%. ويمثل ذلك تحسنًا بنسبة 15% تقريبًا في كفاءة استخدام الطاقة وتوفير ملايين الدولارات.

الخدمات الصغيرة للتعلم العميق

فيما يلي نظرة عامة سريعة على الخدمات المتعلقة بالتعلم العميق.

علامة الرسم التوضيحي. تتيح لك هذه الخدمة، المعززة بواسطة Illustration2Vec، وضع علامة على الصور بتصنيف "محمي" أو "مشكوك فيه" أو "خطير" أو "ذو حقوق طبع ونشر" أو "عام" من أجل فهم محتوى الصورة مسبقًا.

  • الوظيفة الإضافية Theano من Google
  • قابل للتحرير في بيثون وNumpy
  • غالبا ما تستخدم لحل مجموعة محددة من المشاكل
  • ليس للأغراض العامة. التركيز على رؤية الآلة
  • تم التعديل في لغة C++
  • هناك واجهة في بايثون

دورات عبر الإنترنت حول التعلم العميق

تعاونت Google وUdacity لإنشاء دورة مجانية حول التعلم العميق، وهي جزء من دورة Udacity Machine Learning. يقود هذا البرنامج مطورون ذوو خبرة يرغبون في تطوير مجال التعلم الآلي، وخاصة التعلم العميق.

هناك خيار شائع آخر وهو دورة التعلم الآلي من Andrew Ng، بدعم من Coursera وStanford.

  1. التعلم الآلي - جامعة ستانفورد بقلم Andrew Ng على كورسيرا (2010-2014)
  2. التعلم الآلي - معهد كاليفورنيا للتكنولوجيا بقلم ياسر أبو مصطفى (2012-2014)
  3. التعلم الآلي - جامعة كارنيجي ميلون بقلم توم ميتشل (ربيع 2011)
  4. الشبكات العصبية للتعلم الآلي – جيفري هينتون على كورسيرا (2012)
  5. فئة الشبكات العصبية– هوغو لاروشيل من جامعة شيربروك (2013)

كتب عن التعلم العميق

في حين أن الموارد في القسم السابق تعتمد على قاعدة معرفية واسعة إلى حد ما، فإن Grokking Deep Learning، على العكس من ذلك، يستهدف المبتدئين. كما يقول المؤلفون: "إذا أكملت الصف الحادي عشر ولديك فهم تقريبي لكيفية كتابة بايثون، فسنعلمك التعلم العميق."

البديل الشائع لهذا الكتاب هو كتاب يحمل عنوان كتاب التعلم العميق Deep Learning Book الذي لا يحتاج إلى شرح. إنها جيدة بشكل خاص لأنها تغطي جميع العمليات الحسابية التي ستحتاجها للوصول إلى هذه المنطقة.

  1. "التعلم العميق" بقلم يوشوا بينجيو وإيان جودفيلو وآرون كورفيل (2015)
  2. "الشبكات العصبية والتعلم العميق" بقلم مايكل نيلسن (2014)
  3. "التعلم العميق" من أبحاث Microsoft (2013)
  4. "دروس التعلم العميق" من مختبر LISA، جامعة مونتريال (2015)
  5. "الحديث العصبي" لأندريه كارباثي
  6. "مقدمة في الخوارزميات الجينية"
  7. "النهج الحديث للذكاء الاصطناعي"
  8. "نظرة عامة على التعلم العميق والشبكات العصبية"

فيديوهات ومحاضرات

Deep Learning Simplified هي قناة رائعة على اليوتيوب. وهنا الفيديو الأول لهم:

أخبرني كيف تعمل الشبكات العصبية الاصطناعية، وكيف تختلف عن برامج الكمبيوتر التقليدية، ولماذا سيبقى هذا الاتجاه معنا لفترة طويلة.

ما هو التعلم العميق؟

سمعنا عن نجاح التعلم العميق لأول مرة في عام 2012، وبعد ثلاث سنوات أصبح الجميع يتحدثون عنه. نفس الشيء حدث مع الإنترنت في عصر فقاعة الاستثمار. وبما أنه يتم الآن إجراء استثمارات كبيرة في الشبكات العصبية، فيمكننا التحدث بأمان عن فقاعة جديدة.

كان من السهل إثبات استخدام الإنترنت: أولاً، البريد الإلكتروني السريع (مقارنة بالورق)، ثم مواقع الويب الملونة التي يمكن الوصول إليها من خلال أي جهاز كمبيوتر متصل بالإنترنت. في التعلم العميق، كل شيء مختلف: هناك اهتمام به، ولكن من المستحيل إظهار شيء محدد. في الواقع، ما الذي يربط بين برامج التعرف على الكلام وبرامج الترجمة الآلية، وبرامج تحديد الأعطال في معدات النفط والغاز وبرامج تركيب النص الذي يصف الصور الفوتوغرافية؟



وهذا التنوع ليس من قبيل الصدفة: فإذا كانت الإنترنت مجرد نوع من أنواع الاتصالات، فإن الشبكات العصبية العميقة (DNN) هي في الأساس نوع جديد من البرامج، عالمية مثل برامج الكمبيوتر التقليدية. لقد تم إثبات هذه العالمية من الناحية النظرية: يمكن للشبكة العصبية من الناحية النظرية أن تقارب بدقة أي وظيفة للعديد من المتغيرات - كما يمكنها أيضًا إجراء حسابات مكافئة لحسابات آلة تورينج.

الشبكات التي تحتاج إلى تعلمها

ويمكن نقل المعلومات عبر الإنترنت بطريقة رتيبة للغاية، وفي حزم موحدة، وهي مبنية على هذه الفكرة. ولكن يمكنك توليد المعلومات واستهلاكها بطرق مختلفة. برامج الكمبيوتر التي تقوم بذلك مختلفة جدًا. الشبكات العصبية هي نفسها، فهي توفر نفس مجموعة المعالجة.

إن وصف ما هي الشبكات العصبية اليوم هو وصف في أواخر الخمسينيات ما هي برامج الكمبيوتر التقليدية (وتم إصدار لغة FORTRAN في عام 1957) - إذا بدأت القول إن أجهزة الكمبيوتر ستتحكم في الإشعال في كل سيارة، وكذلك عرض الأفلام الإباحية على شاشات الهاتف سوف تجعلك تضحك.

إذا أخبرتك الآن أنك ستتحدث إلى شبكة كمبيوتر عصبية في جهازك اللوحي، وأن الشبكة العصبية ستتحكم في سيارة بدون سائق، فلن تصدق ذلك أيضًا - ولكن عبثًا.

وبالمناسبة، فإن "الصور الإباحية" الموجودة على شبكات التواصل الاجتماعي لم تعد تُكتشف من قبل الأشخاص، بل من خلال الشبكات نفسها. لكن 100 ألف شخص في العالم كانوا يفعلون ذلك، ويشاهدون تيرابايت وتيرابايت من الصور ومقاطع الفيديو. مع ظهور التعلم العميق، بدأ عالم معالجة البيانات يتغير فجأة وبسرعة.

على عكس برامج الكمبيوتر التقليدية، لا تحتاج الشبكات العصبية إلى "الكتابة"، بل تحتاج إلى "التدريس". ويمكن تعليمهم ما هو صعب للغاية (إن لم يكن مستحيلاً) تنفيذه باستخدام هندسة البرمجيات التقليدية. على سبيل المثال، تعلمت الشبكات العصبية بالفعل التعرف على الصوت والفيديو على مستوى الأشخاص - بل وحتى أفضل منهم. أو العكس، قم بإنشاء الصوت والفيديو - إذا كان لديك فهم لصور بعض الكائنات المجسدة في شبكة عصبية عميقة مدربة، فيمكن استخدام هذا الفهم نفسه لإنشاء صور لهذه الكائنات. لم يصل تركيب الصوت والنصوص والصور إلى السوق بعد، لكن التجارب أظهرت بالفعل نجاحات لم يكن من الممكن تحقيقها من قبل في هذا المجال. علاوة على ذلك، لا تستطيع الشبكات العصبية تحليل البيانات فحسب، بل يمكنها أيضًا إصدار الأوامر. لذلك، تعلموا لعب ألعاب أتاري 2600، والعديد منها أفضل من البشر، ولم يكن من الضروري أن يكونوا مبرمجين خصيصًا لهذا الغرض.

فكيف أصبح هذا ممكنا اليوم فقط؟ ولماذا لم تتحقق مثل هذه النتائج منذ فترة طويلة، حتى قبل ظهور الإنترنت؟ بعد كل شيء، فإن المناقشات حول إمكانيات الشبكات العصبية مستمرة منذ الخمسينيات من القرن الماضي!

أولا، أصبح من الواضح كيفية تدريس الشبكات العصبية العميقة - ما هي الرياضيات التي تعمل هناك. الشبكة العصبية العميقة تعني شبكة بعمق أكثر من طبقتين. إذا كان هناك طبقات أقل، فإننا نتحدث عن التعلم الضحل. إذا كان عدد الطبقات أكثر من عشرة، فإنهم يتحدثون عن تعلم عميق جدًا، لكن هذا نادر حتى الآن. في السابق، حاولوا تعليم الشبكات العصبية عن طريق التجربة والخطأ (المعروفة أيضًا باسم طريقة "الدس العلمي")، وبهذه الطريقة كان من الممكن تدريب الشبكات الصغيرة فقط. مع مرور الوقت، ظهر فهم لرياضيات الشبكات العصبية متعددة الطبقات، وأصبح من الممكن تصميمها، كما تم التوصل إلى فهم لكيفية إنشاء أنواع جديدة من الشبكات وضمان قدرتها على التعلم.

ثانيًا، تعمل الشبكة العصبية بسرعة، ولكنها تتعلم ببطء شديد، وهذا يتطلب كميات هائلة من البيانات - البيانات الكبيرة. وكلما زاد عدد الطبقات في الشبكة العصبية، زادت طلبات هذه الشبكة للحصول على قوة الحوسبة أثناء التدريب. في الواقع، حتى وقت قريب، لم يكن من الممكن تعليم الشبكات العصبية أي شيء إلا على الكمبيوتر العملاق.



لقد تغير الوضع اليوم، حيث تم توصيل بطاقات الفيديو بالعمل مع الشبكات العصبية - وقد أدى ذلك إلى تسريع تدريبهم بعشرة أضعاف. ولكن حتى مثل هذا التعلم المتسارع غالبًا ما يعني ساعات طويلة وحتى أيامًا، وأحيانًا أسابيع، من العمليات الحسابية. العزاء الوحيد هو أنه في حالة البرمجة التقليدية، فإن حل نفس المشكلات لن يتطلب أسابيع فقط، بل سنوات من العمل من قبل المبرمجين.

ولكن بمجرد تدريب الشبكة العصبية العميقة، فإنها عادة ما تكون أسرع بمئات إلى آلاف المرات من الخوارزميات التقليدية. يستهلك البرنامج ذاكرة وصول عشوائي أقل بمئات المرات مع نتائج ذات جودة أفضل.

« ماجستير الشبكات العصبية"

أدت الخصائص غير العادية لهذه الشبكات إلى حقيقة أن جميع المسابقات الدولية في تحليل البيانات تقريبًا تفوز بها الشبكات العصبية العميقة. وإذا كان لديك نوع من مهمة تحليل البيانات، وهناك الكثير، الكثير من هذه البيانات، فهناك فرصة جيدة أن تستفيد الشبكات العصبية العميقة أيضًا في هذه الحالة.

مهنة العاملين في الشبكات العصبية ليس لها اسم حتى الآن. إذا ظهر مفهوم "مشرف الموقع" في فجر الإنترنت (واستمر لمدة خمس أو ست سنوات)، فلا توجد مهنة مماثلة لـ "سيد الشبكة العصبية" حتى الآن. في مجال البيانات الضخمة، يطلق هؤلاء المتخصصون على أنفسهم اسم "علماء البيانات"، لكن عملهم لا يزال له نفس الطبيعة الهندسية لعمل المبرمجين. يقوم المهندسون بقياس وتحليل وتصميم وبناء واستهداف الأنظمة والأدوات الهندسية. هندسة البرمجيات تختلف عن علوم الكمبيوتر. الأمر نفسه ينطبق على الشبكات العصبية: لا يوجد اسم لهذه المهنة حتى الآن، ولكن يوجد بالفعل مهندسون سيساعدونك على إنشائها وتدريبها واستخدامها. لحسن الحظ، خلال العام الماضي، ظهرت بنية تحتية متطورة لمهنة جديدة: دورات تدريبية جامعية، وعشرات البرامج التعليمية، والكتب، والمسابقات وأسباب التدريب، وعدد كبير من البرامج المجانية. فقط في مجتمع التعلم العميق الناطق باللغة الروسية فكونتاكتي اليوم

اليوم، يعد الرسم البياني أحد أكثر الطرق المقبولة لوصف النماذج التي تم إنشاؤها في نظام التعلم الآلي. تتكون هذه الرسوم البيانية الحسابية من رؤوس الخلايا العصبية المتصلة بحواف المشبك التي تصف الروابط بين القمم.

على عكس معالج الرسومات المركزي أو المتجه العددي، يسمح IPU، وهو نوع جديد من المعالجات المصممة للتعلم الآلي، ببناء مثل هذه الرسوم البيانية. يعد الكمبيوتر المصمم لمعالجة الرسوم البيانية آلة مثالية لحساب نماذج الرسوم البيانية التي تم إنشاؤها من خلال التعلم الآلي.

إحدى أسهل الطرق لوصف عملية ذكاء الآلة هي تصورها. قام فريق تطوير Graphcore بإنشاء مجموعة من هذه الصور التي يتم عرضها على IPU. يعتمد على برنامج Poplar الذي يتصور عمل الذكاء الاصطناعي. اكتشف الباحثون من هذه الشركة أيضًا سبب احتياج الشبكات العميقة إلى الكثير من الذاكرة، وما هي الحلول الموجودة لحل المشكلة.

يشتمل Poplar على مترجم رسومات تم إنشاؤه من الألف إلى الياء لترجمة عمليات التعلم الآلي القياسية إلى كود تطبيق IPU محسّن للغاية. فهو يسمح لك بتجميع هذه الرسوم البيانية معًا باستخدام نفس المبدأ الذي يتم به تجميع شبكات POPNN. تحتوي المكتبة على مجموعة من أنواع الرؤوس المختلفة للأوليات المعممة.

الرسوم البيانية هي النموذج الذي تعتمد عليه جميع البرامج. في Poplar، تسمح لك الرسوم البيانية بتحديد عملية حسابية، حيث تقوم القمم بتنفيذ العمليات وتصف الحواف العلاقة بينها. على سبيل المثال، إذا كنت تريد إضافة رقمين معًا، يمكنك تحديد قمة بمدخلين (الأرقام التي ترغب في إضافتها)، وبعض العمليات الحسابية (دالة لإضافة رقمين)، ومخرج (النتيجة).

عادة، تكون العمليات مع القمم أكثر تعقيدًا بكثير مما في المثال الموضح أعلاه. غالبًا ما يتم تعريفها بواسطة برامج صغيرة تسمى Codelets (الأسماء الرمزية). يعد التجريد الرسومي جذابًا لأنه لا يقدم أي افتراضات حول بنية الحساب ويقسم الحساب إلى مكونات يمكن للاتحاد البرلماني الدولي استخدامها للعمل.

يستخدم Poplar هذا التجريد البسيط لإنشاء رسوم بيانية كبيرة جدًا يتم تمثيلها كصور. ويعني إنشاء برنامج للرسم البياني أنه يمكننا تخصيصه وفقًا للحسابات المحددة اللازمة لضمان الاستخدام الأكثر كفاءة لموارد الاتحاد البرلماني الدولي.

يقوم المترجم بترجمة العمليات القياسية المستخدمة في أنظمة التعلم الآلي إلى رمز تطبيق محسّن للغاية للاتحاد البرلماني الدولي. يقوم مترجم الرسم البياني بإنشاء صورة وسيطة للرسم البياني الحسابي، والتي يتم نشرها على واحد أو أكثر من أجهزة IPU. يمكن للمترجم عرض هذا الرسم البياني الحسابي، لذلك يعرض التطبيق المكتوب على مستوى إطار الشبكة العصبية صورة للرسم البياني الحسابي الذي يتم تشغيله على IPU.


رسم بياني لدورة تدريب AlexNet الكاملة في الاتجاهين الأمامي والخلفي

قام مترجم الرسوميات Poplar بتحويل وصف AlexNet إلى رسم بياني حسابي يضم 18.7 مليون رأس و115.8 مليون حافة. إن التجميع الواضح هو نتيجة للاتصال القوي بين العمليات في كل طبقة من طبقات الشبكة، مع سهولة الاتصال بين الطبقات.

مثال آخر هو شبكة بسيطة متصلة بالكامل تم تدريبها على MNIST، وهي مجموعة بيانات بسيطة لرؤية الكمبيوتر، وهي نوع من "مرحبًا أيها العالم" في التعلم الآلي. تساعد الشبكة البسيطة لاستكشاف مجموعة البيانات هذه على فهم الرسوم البيانية التي تعتمدها تطبيقات Poplar. ومن خلال دمج مكتبات الرسوم البيانية مع أطر عمل مثل TensorFlow، توفر الشركة إحدى أبسط الطرق لاستخدام وحدات IPU في تطبيقات التعلم الآلي.

بعد إنشاء الرسم البياني باستخدام المترجم، يجب تنفيذه. هذا ممكن باستخدام محرك الرسم البياني. يوضح مثال ResNet-50 عملها.


الرسم البياني ResNet-50

تسمح بنية ResNet-50 بإنشاء شبكات عميقة من الأقسام المتكررة. يحتاج المعالج فقط إلى تحديد هذه الأقسام مرة واحدة ثم الاتصال بها مرة أخرى. على سبيل المثال، يتم تنفيذ مجموعة مستوى conv4 ست مرات، ولكن يتم تعيينها مرة واحدة فقط على الرسم البياني. تُظهر الصورة أيضًا تنوع أشكال الطبقات التلافيفية، حيث تحتوي كل طبقة على رسم بياني تم إنشاؤه وفقًا لشكل طبيعي من العمليات الحسابية.

يقوم المحرك بإنشاء وإدارة تنفيذ نموذج التعلم الآلي باستخدام رسم بياني تم إنشاؤه بواسطة المترجم. بمجرد النشر، يقوم Graph Engine بمراقبة وحدات IPU أو الأجهزة التي تستخدمها التطبيقات والاستجابة لها.

تُظهر صورة ResNet-50 النموذج بأكمله. في هذا المستوى، من الصعب تحديد الروابط بين القمم الفردية، لذا من المفيد النظر إلى الصور المكبرة. فيما يلي بعض الأمثلة على الأقسام الموجودة داخل طبقات الشبكة العصبية.

لماذا تحتاج الشبكات العميقة إلى الكثير من الذاكرة؟

تعد آثار الذاكرة الكبيرة أحد أكبر التحديات التي تواجه الشبكات العصبية العميقة. ويحاول الباحثون مكافحة النطاق الترددي المحدود لأجهزة DRAM، والتي يجب أن تستخدمها الأنظمة الحديثة لتخزين أعداد هائلة من الأوزان والتنشيطات في شبكة عصبية عميقة.

تم تصميم البنى باستخدام شرائح المعالج المصممة للمعالجة التسلسلية وتحسين DRAM للذاكرة عالية الكثافة. تعد الواجهة بين هذين الجهازين بمثابة عنق الزجاجة الذي يقدم قيودًا على عرض النطاق الترددي ويضيف حملًا كبيرًا في استهلاك الطاقة.

على الرغم من أننا لا نملك بعد فهمًا كاملاً للدماغ البشري وكيفية عمله، إلا أنه من المفهوم عمومًا أنه لا يوجد مخزن كبير منفصل للذاكرة. يُعتقد أن وظيفة الذاكرة طويلة المدى وقصيرة المدى في الدماغ البشري مدمجة في بنية الخلايا العصبية والمشابك العصبية. حتى الكائنات الحية البسيطة مثل الديدان، التي تحتوي على بنية دماغية عصبية تزيد قليلاً عن 300 خلية عصبية، لديها بعض وظائف الذاكرة.

يعد بناء الذاكرة في المعالجات التقليدية إحدى الطرق للتحايل على مشكلة عنق الزجاجة في الذاكرة، وفتح نطاق ترددي هائل مع استهلاك طاقة أقل بكثير. ومع ذلك، فإن الذاكرة الموجودة على الرقاقة باهظة الثمن وغير مصممة للكميات الكبيرة من الذاكرة المرتبطة بوحدات المعالجة المركزية ووحدات معالجة الرسومات المستخدمة حاليًا لتدريب ونشر الشبكات العصبية العميقة.

لذلك من المفيد أن ننظر إلى كيفية استخدام الذاكرة اليوم في وحدات المعالجة المركزية (CPU) وأنظمة التعلم العميق المعتمدة على وحدة معالجة الرسومات (GPU) وأن تسأل نفسك: لماذا تتطلب أجهزة تخزين الذاكرة الكبيرة هذه عندما يعمل الدماغ البشري بشكل جيد بدونها؟

تحتاج الشبكات العصبية إلى ذاكرة لتخزين بيانات الإدخال والأوزان ووظائف التنشيط أثناء انتشار الإدخال عبر الشبكة. في التعلم، يجب الحفاظ على التنشيط على المدخلات حتى يمكن استخدامه لحساب الأخطاء في تدرجات الإخراج.

على سبيل المثال، تحتوي شبكة ResNet المكونة من 50 طبقة على حوالي 26 مليون معلمة وزن وتحسب 16 مليون عملية تنشيط للأمام. إذا كنت تستخدم تعويمًا 32 بت لتخزين كل وزن وتنشيط، فسوف يتطلب الأمر حوالي 168 ميجابايت من المساحة. باستخدام قيمة دقة أقل لتخزين هذه الأوزان وعمليات التنشيط، يمكننا خفض متطلبات التخزين هذه إلى النصف أو حتى أربعة أضعاف.

تنشأ مشكلة كبيرة في الذاكرة من حقيقة أن وحدات معالجة الرسومات تعتمد على البيانات الممثلة كمتجهات كثيفة. ولذلك، يمكنهم استخدام مؤشر ترابط التعليمات المفردة (SIMD) لتحقيق كثافة حوسبة عالية. تستخدم وحدة المعالجة المركزية وحدات متجهة مماثلة للحوسبة عالية الأداء.

تتمتع وحدات معالجة الرسومات بعرض تشابك يبلغ 1024 بت، لذا فهي تستخدم بيانات الفاصلة العائمة 32 بت، لذلك غالبًا ما تقوم بتقسيمها إلى مجموعة صغيرة متوازية مكونة من 32 عينة لإنشاء متجهات لبيانات 1024 بت. يؤدي هذا الأسلوب في توازي المتجهات إلى زيادة عدد عمليات التنشيط بمقدار 32 مرة والحاجة إلى تخزين محلي بسعة تزيد عن 2 جيجابايت.

تخضع وحدات معالجة الرسومات والأجهزة الأخرى المصممة لجبر المصفوفات أيضًا لتحميل الذاكرة من الأوزان أو تنشيط الشبكة العصبية. لا تستطيع وحدات معالجة الرسوميات أداء التلافيف الصغيرة المستخدمة في الشبكات العصبية العميقة بكفاءة. ولذلك، يتم استخدام تحويل يسمى "الاختزال" لتحويل هذه التلافيف إلى مضاعفات مصفوفة مصفوفة (GEMMs)، والتي يمكن لوحدات معالجة الرسومات التعامل معها بكفاءة.

مطلوب أيضًا ذاكرة إضافية لتخزين بيانات الإدخال والقيم المؤقتة وتعليمات البرنامج. أظهر قياس استخدام الذاكرة عند تدريب ResNet-50 على وحدة معالجة رسومات متطورة أنه يتطلب أكثر من 7.5 جيجابايت من ذاكرة الوصول العشوائي الديناميكية (DRAM) المحلية.

قد يعتقد البعض أن انخفاض الدقة الحسابية قد يقلل من مقدار الذاكرة المطلوبة، ولكن هذا ليس هو الحال. من خلال تحويل قيم البيانات إلى نصف الدقة للأوزان وعمليات التنشيط، سوف تملأ فقط نصف عرض ناقل SIMD، مما يؤدي إلى إهدار نصف موارد الحوسبة المتاحة. للتعويض عن ذلك، عند التبديل من الدقة الكاملة إلى الدقة النصفية على وحدة معالجة الرسومات، سيتعين عليك بعد ذلك مضاعفة حجم الدفعة الصغيرة لفرض توازي بيانات كافٍ لاستخدام جميع الحسابات المتاحة. وبالتالي، فإن الانتقال إلى أوزان وعمليات تنشيط أقل دقة على وحدة معالجة الرسومات لا يزال يتطلب أكثر من 7.5 جيجابايت من الذاكرة الديناميكية التي يمكن الوصول إليها مجانًا.

مع وجود الكثير من البيانات التي يمكن تخزينها، فمن المستحيل ببساطة دمجها كلها في وحدة معالجة الرسومات. تحتاج كل طبقة شبكة عصبية تلافيفية إلى تخزين حالة ذاكرة الوصول العشوائي الديناميكية (DRAM) الخارجية، وتحميل طبقة الشبكة التالية، ثم تحميل البيانات إلى النظام. ونتيجة لذلك، تعاني واجهة الذاكرة الخارجية ذات النطاق الترددي المحدود بالفعل من العبء الإضافي المتمثل في إعادة تحميل المقاييس باستمرار وتخزين وظائف التنشيط واسترجاعها. يؤدي هذا إلى إبطاء وقت التدريب بشكل كبير ويزيد بشكل كبير من استهلاك الطاقة.

هنالك العديد من الطرق لحل هذه المشكلة. أولاً، يمكن إجراء عمليات مثل وظائف التنشيط "في مكانها"، مما يسمح بإعادة كتابة بيانات الإدخال مباشرة إلى المخرجات. بهذه الطريقة يمكن إعادة استخدام الذاكرة الموجودة. ثانيًا، يمكن الحصول على فرصة إعادة استخدام الذاكرة من خلال تحليل تبعية البيانات بين العمليات على الشبكة وتخصيص نفس الذاكرة للعمليات التي لا تستخدمها حاليًا.

يكون النهج الثاني فعالاً بشكل خاص عندما يمكن تحليل الشبكة العصبية بأكملها في وقت الترجمة لإنشاء ذاكرة مخصصة ثابتة، حيث يتم تقليل الحمل الزائد لإدارة الذاكرة إلى الصفر تقريبًا. اتضح أن الجمع بين هذه الأساليب يمكن أن يقلل من استخدام الذاكرة للشبكة العصبية بمقدار مرتين إلى ثلاث مرات.
تم اكتشاف نهج ثالث مهم مؤخرًا بواسطة فريق Baidu Deep Speech. وقاموا بتطبيق تقنيات مختلفة لتوفير الذاكرة لتحقيق انخفاض بمقدار 16 ضعفًا في استهلاك الذاكرة لوظائف التنشيط، مما يسمح لهم بتدريب الشبكات باستخدام 100 طبقة. في السابق، وبنفس القدر من الذاكرة، كان بإمكانهم تدريب الشبكات ذات تسع طبقات.

إن الجمع بين موارد الذاكرة والمعالجة في جهاز واحد له إمكانات كبيرة لتحسين أداء وكفاءة الشبكات العصبية التلافيفية، بالإضافة إلى أشكال أخرى من التعلم الآلي. يمكن إجراء المفاضلات بين الذاكرة وموارد الحوسبة لتحقيق التوازن بين الميزات والأداء في النظام.

يمكن اعتبار الشبكات العصبية ونماذج المعرفة في طرق التعلم الآلي الأخرى بمثابة رسوم بيانية رياضية. هناك قدر كبير من التوازي يتركز في هذه الرسوم البيانية. المعالج المتوازي المصمم لاستغلال التوازي في الرسوم البيانية لا يعتمد على الدفعة الصغيرة ويمكن أن يقلل بشكل كبير من مقدار التخزين المحلي المطلوب.

أظهرت نتائج الأبحاث الحالية أن كل هذه الأساليب يمكن أن تحسن بشكل كبير أداء الشبكات العصبية. تتمتع وحدات معالجة الرسوميات ووحدات المعالجة المركزية الحديثة بذاكرة مدمجة محدودة للغاية، حيث لا يتجاوز إجمالي عدد الميغابايت القليلة. تعمل بنيات المعالجات الجديدة المصممة خصيصًا للتعلم الآلي على موازنة الذاكرة والحوسبة على الرقاقة، مما يوفر تحسينات كبيرة في الأداء والكفاءة مقارنة بوحدات المعالجة المركزية (CPU) ووحدات معالجة الرسومات (GPU) الحالية.

لقد تعلمت عن اتجاهات الأعمال في مؤتمر واسع النطاق في كييف. كان يوم السبت مليئًا بالرؤى، التي اكتسبنا فيها معرفة ومعارف جديدة، اكتسبناها على مدار الساعات التي قضيناها. كان هناك في المؤتمر 4 تيارات من المعلومات لقادة الأعمال وكبار المديرين والمسوقين والمبيعات والموارد البشرية وغيرهم من المتخصصين. وكان أحد المتحدثين وزير البنية التحتية فولوديمير أوميليان، الذي تحدث عن تطوير جالوزيا، وتجديد الطرق والمطارات.

يوم جيد للجميع، عزيزي مستخدمي iOS الأعزاء، ربما عمل كل واحد منكم مع الشبكة وقام بتحليل البيانات من JSON. هناك الكثير من المكتبات، وجميع أنواع الأدوات التي يمكنك استخدامها لهذه العملية. بعضها معقد وبعضها بسيط. لأكون صادقًا، قمت بنفسي بتحليل JSON يدويًا لفترة طويلة جدًا، ولم أثق في هذه العملية لبعض مكتبات الطرف الثالث، وكان لذلك مزاياه.

في 9 سبتمبر 2014، خلال العرض التقديمي التالي، قدمت شركة Apple نظام الدفع عبر الهاتف المحمول الخاص بها - Apple Pay.

مع Apple Pay، يمكن لمستخدمي iPhone 6 وiPhone 6+ ومالكي أحدث Apple Watch التسوق عبر الإنترنت والاستمتاع بمزايا Apple Pay الإضافية لتطبيقات الهاتف المحمول وإجراء الدفعات باستخدام تقنية NFC (الاتصال قريب المدى). يتم استخدام تقنيات Touch ID أو Face ID للسماح بالمدفوعات.

التكنولوجيات لا تقف ساكنة، وعمليات التطوير تتحرك معها. فإذا كانت الشركات في السابق تعمل وفق نموذج "الشلال"، فالآن على سبيل المثال، يسعى الجميع إلى تطبيق "سكرم". يحدث التطور أيضًا في تقديم خدمات تطوير البرمجيات. في السابق، كانت الشركات تقدم لعملائها تطويرًا عالي الجودة في حدود الميزانية، وتتوقف عند هذا الحد، لكنها الآن تسعى جاهدة لتوفير أقصى استفادة للعميل وأعماله من خلال تقديم خبراتهم.

على مدار السنوات القليلة الماضية، ظهرت العديد من الخطوط الجيدة، بما في ذلك الخطوط المجانية، لدرجة أننا قررنا أن نكتب استمرارًا لخطوطنا للمصممين.

كل مصمم لديه مجموعة من الخطوط المفضلة للعمل بها والتي اعتاد العمل عليها والتي تعكس أسلوبه الرسومي. يقول المصممون: "لا يمكنك أبدًا الحصول على عدد كبير جدًا من الخطوط الجيدة"، ولكن يمكنك الآن أن تتخيل بأمان موقفًا تتكون فيه هذه المجموعة من خطوط مجانية فقط.

كم مرة يجد مديرو المشاريع أنفسهم بين المطرقة والسندان عند محاولتهم إيجاد توازن بين جميع المتطلبات والمواعيد النهائية للعميل والصحة العقلية للفريق بأكمله؟ كم عدد الفروق الدقيقة التي يجب أخذها في الاعتبار حتى يكون هناك سلام ونظام على جانبي المسؤولية؟ كيف تعرف إذا كنت مديرًا جيدًا أو إذا كنت بحاجة ماسة إلى التحسين على جميع الجبهات؟ كيفية تحديد الجوانب التي تتخلف فيها بصفتك رئيسًا للوزراء، وأين أنت جيد وذكي؟ هذا هو بالضبط ما كان يدور حوله مؤتمر Code'n'Coffee التالي.

أصبحت تقنية التعرف على الأنماط جزءًا متزايدًا من حياتنا اليومية. وتستخدمه الشركات والمؤسسات في مجموعة متنوعة من المهام، بدءًا من الأمن وحتى استطلاعات رضا العملاء. ومن المتوقع أن تنمو الاستثمارات في المنتجات القائمة على هذه الوظيفة إلى 39 مليار دولار بحلول عام 2021. فيما يلي بعض الأمثلة فقط لكيفية استخدام التعرف على الأنماط في مجالات مختلفة.