ابحث في الموقع

ما هو SoC وما الفرق بينه وبين وحدة المعالجة المركزية؟

ما هو SoC وما الفرق بينه وبين وحدة المعالجة المركزية؟
بينما يمكنك استبدال أو ترقية أي جزء تقريبًا في جهاز كمبيوتر يعمل بنظام Windows أو Linux ، مثل المعالج أو بطاقة الرسومات أو حتى ذاكرة الوصول العشوائي ، فلن تتمكن من استبدال أو حتى ترقية جزء صغير مثل ذاكرة الوصول العشوائي إذا كان الكمبيوتر يعمل جهاز MacBook أو iMac حديث يعتمد على شريحة M1 أو M2 ، وهذا يرجع إلى تطور التكنولوجيا المستخدمة في تلك الأجهزة ، وليس عيبًا تقنيًا! اعتمدت شركة Apple على معالج صممته في هواتفها الذكية المعاصرة ، كما فعلت Google بشريحة Tensor. بسبب تقنية SoC ، تتحول معظم الشركات بشكل متزايد إلى إنتاج شرائح المعالجات الخاصة بها لأجهزة الكمبيوتر والأجهزة.

ربما سمعت أو قرأت عن SOC – اختصار System On a Chip – من قبل ، ولكن ما هي هذه التكنولوجيا بالضبط؟ كيف تتصل بالمعالج والمكونات الأخرى؟ لكن انظر إلى أي مدى حان! هل من الممكن استخدامه على جهاز كمبيوتر شخصي؟ يسعدني الرد على أي أسئلة هنا.
                                             
ما هو المعالج,وحدة المعالجة المركزية,شو يعني وحدة المعالجة المركزية,المعالج,ما هو البروسيسور,ما هو المعالج و ماذا تعني معمارية 7 نانومتر,الفرق بين المعالجات في الهواتف,الفرق بين كارت الشاشة و المعالج,ما هى الفروق بين معالجات الهواتف,ايه الفرق بين المعالجات,الفرق بين وحدات التخزين,شلون الفرق بين المعالجات,المعالجات,ما هي نواة المعالج,ترتيب المعالجات,ما هو معالج الايفون,الفرق ما بين الماذر بورد والتشيب سيت,سرعة المعالج,أنواع المعالج
ما هو SoC وما الفرق بينه وبين وحدة المعالجة المركزية؟

شريحة من SoC | الكل في واحد!

يجب أن تكون قد استخدمت برنامج ضغط الملفات مثل 7Zip أو WinRAR مرة واحدة على الأقل لتجميع عدة ملفات ودمجها في مجلد واحد مضغوط أقل حجمًا ويحتفظ بجميع المعلومات دون التضحية بالأداء أو الدقة. يمكنك الادعاء أن شركات التكنولوجيا استخدمت نفس الأسلوب ، ولكن على المكونات الرئيسية للكمبيوتر! لا يتم ضغطها فحسب ، بل يتم دمجها أيضًا في شريحة واحدة متكاملة ، تُعرف باسم SoC.                                                                                                                                                                                                                                
يتم وضع كل من وحدة المعالجة المركزية ووحدة معالجة الرسومات وذاكرة الوصول العشوائي وحتى المودم لاستقبال إشارات Wi-Fi و Bluetooth ، بالإضافة إلى المعالجات الإضافية الأخرى مثل وحدة الذكاء الاصطناعي ، في شريحة مدمجة واحدة. هذا المثال ، SoC هو نفسه وحدة المعالجة المركزية ، ولكنه يحتوي أيضًا على باقي المكونات الأساسية.                                                                                                                                                      
هذا على عكس أجهزة الكمبيوتر العادية ، حيث يكون كل جزء مستقلًا وله مكانه الخاص على اللوحة الأم ، مثل مقبس وحدة المعالجة المركزية ، ومنفذ PCIe لبطاقة الرسوميات ، ومنفذ DIMM للذاكرة العشوائية ، وغيرها ، والتي تتطلب الكثير من المساحة والطاقة ، ناهيك عن نظام تبريد مستقل لكل جزء تقريبًا.                                                                                                                                                                           
حسناً ، أنت تقول ، لكن ماذا عن الأداء؟ في الواقع ، ستندهش من مدى ارتفاع الأداء لمثل هذا الحجم الصغير واستهلاك أقل للطاقة ، خاصة مع الشرائح الجديدة القائمة على نفس SoC التي قدمتها لنا Apple في السنوات الأخيرة ، مثل سلسلة M1 أو الجيل الثاني من M2 ، الذي سوف يذهلك أداؤه بشكل عام. علاوة على ذلك ، فإن تقنية SOC هي ما يجعل هواتفنا أكثر ذكاءً وأرق وأخف وزناً ، وستجعل قريبًا أجهزة الكمبيوتر أكثر قوة وأصغر وأقل تكلفة. بالطبع ، لم يحدث هذا التطور عن طريق الصدفة ، بل حدث على مدى فترة طويلة من الزمن.                                              
 
 
العالم الرقمي قبل soc و نظام على رقاقة
 
لن تتفاجأ بالحجم الهائل لأجهزة الكمبيوتر في بداية عصرها ، والذي كان يقارب حجم غرفة أو غرفتين من منازلنا الحالية ، وكما نعلم ، فقد أصبح أصغر بمرور الوقت ، خاصة بعد اختراع الدائرة المتكاملة ، أو IC ، في الخمسينيات من القرن الماضي ، والتي ساهمت في جمع آلاف المكونات الإلكترونية الدقيقة. تتصل الترانزستورات والمقاومات والمكثفات لبناء دوائر إلكترونية متكاملة في قطعة واحدة من السيليكون ، مما يؤدي إلى استبدال المكونات الكبيرة بأخرى أصغر نسبيًا حتى أوائل السبعينيات ، عندما قدمت Intel أول معالج وحدة المعالجة المركزية أحادية الشريحة ، “Intel 4004 “. لقد جمعت عناصر المعالجة الأساسية في دائرة متكاملة واحدة ، مما يمثل قفزة تقنية كبيرة في ذلك الوقت.     
 
بعد ذلك ، في عام 1974 ، قدمت شركة Texas Instruments أول متحكم دقيق ، يُعرف أحيانًا باسم “شريحة السيليكون القابلة للبرمجة” ، والتي كانت عبارة عن كمبيوتر صغير! بدلًا من التقنية التقليدية التي احتاجت لوجود IC لكل مكون مثل المعالج وذاكرة الوصول العشوائي وحتى وحدة التحكم وغيرها ، فهي مكونة من معالجات دقيقة بالإضافة إلى ذاكرة الوصول العشوائي ، مع دمج أجهزة الإدخال والإخراج معها المعالج المركزي داخل شريحة واحدة.
 
ساعد هذا الاكتشاف في تطوير أجهزة الكمبيوتر الصغيرة وأجهزة الألعاب الرقمية والأجهزة الأخرى التي تتطلب الحد الأدنى من المعالجة. ومع ذلك ، نظرًا لقدراته المحدودة مقارنةً بوحدة المعالجة المركزية المركزية ، وذاكرة الوصول العشوائي المنفصلة ، وحتى معالج الرسومات ، الذي لا يزال يقدم أداءً مقبولاً ، لم يتم استخدام وحدة التحكم الدقيقة في أجهزة الكمبيوتر. 
 
كان هذا صحيحًا حتى بعد إدخال الهواتف التقليدية ، حيث عمل المعالج وذاكرة الوصول العشوائي ومكونات أخرى بشكل مستقل على نفس اللوحة الأم ، حتى وصلت الهواتف الذكية وغيرت كل شيء! بدلاً من الاعتماد على شرائح الميكروكونترولر أو حتى المعالجات الدقيقة ، تم تصميم SoC ، والذي يتبع نفس الفرضية مثل الميكروكونترولر ولكنه يوسع القدرة الاستيعابية للرقاقة لتلائم المكونات الأخرى. ونتيجة لذلك ، كانت الهواتف المحمولة تشبه أجهزة الكمبيوتر المحمولة في الجيب فقط بسبب هذا ، الذي دمج جميع المكونات الرئيسية ، وخاصة المعالج ، داخل شريحة سيليكون واحدة بحجم عملة معدنية.

أهم استخدامات النظام على الرقاقة    

بالتأكيد ، الدرس المستفاد من هذا الاختراع هو وضع أكبر عدد ممكن من المكونات التي يحتاجها الكمبيوتر للعمل ضمن قطعة واحدة من أجل تحقيق عدة أهداف مثل تقليل استهلاك الطاقة ، وتقليل تكاليف التصنيع ، وتحسين الأداء ، وتقليل الحجم الكلي لل جهاز. يساهم كل هذا بشكل كبير في تطوير الهواتف الذكية والأجهزة اللوحية وأجهزة الكمبيوتر المحمولة القوية بشكل متزايد مع عمر بطارية أطول ومظهرأنيق.
 
نتيجة لذلك ، لن يكتمل الهاتف الذكي بدون تقنية النظام على الرقاقة التي توفرها شرائح مثل Snapdragon أو حتى MediaTek و Samsung Xeno و Huawei’s Kirin ، ناهيك عن الرقائق التي استخدمتها Apple في منتجاتها خلال الـ 14 الماضية سنوات ، بدءًا من شرائح SoC القائمة على بنية ARM وتصنيعها بواسطة شركات أخرى ، ثم في عام 2010 قدمت Apple أول شريحة SoC لها ، A4 ، للعمل مع أجهزة iPhone و iPad.
 
كانت معالجات SoC شائعة في الأجهزة اللوحية والهواتف الذكية حتى عام 2020 ، عندما وصلت شريحة Apple M1 كأول شريحةSoc يمكن استخدامها في أجهزة الكمبيوتر ، سواء أجهزة كمبيوتر سطح المكتب أو أجهزة كمبيوتر محمولة مثل MacBook و iMac. بغض النظر عما سبق ، من المتوقع أن تتسلل تقنية SoC وجميع استخداماتها إلى عالمنا المستقبلي.

هل سنرى تقنية SoC في المزيد من أجهزة الكمبيوتر المستقبلية؟

على الرغم من أن SoC هي تقنية ممتازة ، إلا أن تطبيقاتها الحالية تقتصر على الهواتف الذكية والأجهزة اللوحية وأجهزة Apple مثل أجهزة كمبيوتر سطح المكتب iMac ، وكذلك أجهزة الكمبيوتر الصغيرة مثل Pi ، نظرًا لاستهلاكها المنخفض للطاقة وأدائها القوي وصغر حجمها. ومع ذلك ، قد لا نراه على أجهزة الكمبيوتر مثل أجهزة كمبيوتر سطح المكتب التي تعمل بنظام Windows والتي تتطلب تبريدًا عالي الجودة في الوقت الحالي. بصرف النظر عن ذلك ، لا تسمح لك تقنية SoC باستبدال مكونات مثل المعالج وبطاقة الرسومات وحتى ذاكرة الوصول العشوائي ، لكننا لا نعرف ما يخبئه المستقبل ، وربما سنرى أجهزة كمبيوتر عملاقة تستخدم SoC أو نظام على شريحة في المستقبل.

تعليقات (0)
إغلاق
https://whatsapp.com/channel/0029VabRFemDJ6GvAzHpXl3i إنضم لقناتنا على واتساب
https://t.me/gameskrack إنضم لقناتنا على تيليجرام