GPT-4 هنا ، وهذه هي الميزات الجديدة التي يجب عليك التحقق منها.

أطلقت شركة OpenAI أخيرًا تحديث GPT الذي طال انتظاره ، GPT-4. يأتي نموذج اللغة الكبيرة (LLM) مع بعض الميزات والقدرات الجديدة القوية التي صدمت المستخدمين في جميع أنحاء العالم بالفعل.

بالإضافة إلى كونه أفضل بكثير من GPT-3.5 ، فإن نظام LLM الحالي الذي يدعم chatbot الفيروسي ChatGPT من OpenAI ، يمكن لـ GPT-4 فهم المدخلات الأكثر تعقيدًا ، وله حد أكبر بكثير لإدخال الأحرف ، ولديه إمكانيات متعددة الوسائط ، ويُقال إنه أكثر أمانًا يستخدم.

1. يمكن لـ GPT-4 فهم المدخلات الأكثر تعقيدًا

تتمثل إحدى أكبر الميزات الجديدة لـ GPT-4 في قدرتها على فهم المطالبات الأكثر تعقيدًا ودقة. وفق أوبن إيه آي، GPT-4 "يعرض أداءً على مستوى الإنسان في مختلف المعايير المهنية والأكاديمية."

تم إثبات ذلك من خلال وضع GPT-4 في العديد من الاختبارات على المستوى البشري والاختبارات الموحدة ، مثل SAT و BAR و GRE ، بدون تدريب محدد. لم يقتصر الأمر على فهم GTP-4 وحل هذه الاختبارات بدرجة عالية نسبيًا في جميع المجالات ، ولكنه تفوق أيضًا على سابقه ، GPT-3.5 ، في كل مرة.

حقوق الصورة: أوبن إيه آي
instagram viewer

إن القدرة على فهم مطالبات الإدخال الأكثر دقة يتم دعمها أيضًا من خلال حقيقة أن GPT-4 لديها حد كلمات أكبر بكثير. يمكن للنموذج الجديد التعامل مع مطالبات الإدخال لما يصل إلى 25000 كلمة (للسياق ، كان GPT-3.5 مقتصرًا على 8000 كلمة). سيؤثر هذا بشكل مباشر على التفاصيل التي يمكن للمستخدمين الضغط عليها في مطالباتهم ، وبالتالي إعطاء النموذج مزيدًا من المعلومات للعمل معها وإنتاج مخرجات أطول.

يدعم GPT-4 أيضًا أكثر من 26 لغة ، بما في ذلك اللغات منخفضة الموارد مثل اللاتفية والويلزية والسواحيلية. عند قياسها على دقة ثلاث لقطات على معيار MMLU ، تفوقت GPT-4 على GPT-3.5 بالإضافة إلى LLMs الأخرى الرائدة مثل PaLM و Chinchilla من حيث أداء اللغة الإنجليزية بـ 24 لغة.

2. قدرات الوسائط المتعددة

الإصدار السابق من الدردشة كان يقتصر على المطالبات النصية فقط. في المقابل ، فإن إحدى أحدث ميزات GPT-4 هي قدراتها متعددة الوسائط. يمكن أن يقبل النموذج كلاً من المطالبات النصية والصورة.

هذا يعني أنه يمكن للذكاء الاصطناعي قبول صورة كمدخلات وتفسيرها وفهمها تمامًا مثل مطالبة النص. تمتد هذه الإمكانية على جميع أحجام وأنواع الصور والنصوص ، بما في ذلك المستندات التي تجمع بين الاثنين والرسومات المرسومة باليد وحتى لقطات الشاشة.

ومع ذلك ، تتجاوز إمكانات قراءة الصور في GPT-4 مجرد تفسيرها. عرضت شركة OpenAI هذا في تدفق المطورين (أعلاه) ، حيث زودوا GPT-4 بنموذج بالحجم الطبيعي مرسوم يدويًا لموقع ويب مزاح. تم تكليف النموذج بكتابة كود HTML و JavaScript لتحويل النموذج إلى موقع ويب أثناء استبدال النكات بأخرى حقيقية.

كتب GPT-4 الكود أثناء استخدام التخطيط المحدد في النموذج بالحجم الطبيعي. عند الاختبار ، أنتج الكود موقع عمل به ، كما يمكنك تخمين ، نكات فعلية. هل تعني إن تطورات الذكاء الاصطناعي تعني نهاية البرمجة? ليس تمامًا ، لكنها لا تزال ميزة مفيدة في مساعدة المبرمجين.

على الرغم من أن هذه الميزة تبدو واعدة ، إلا أنها لا تزال قيد معاينة البحث وليست متاحة للجمهور. بالإضافة إلى ذلك ، يستغرق النموذج الكثير من الوقت لمعالجة المدخلات المرئية ، مع إعلان OpenAI نفسه أنه قد يستغرق العمل والوقت ليصبح أسرع.

3. قدرة أكبر على التوجيه

تدعي شركة OpenAI أيضًا أن GPT-4 تتمتع بدرجة عالية من قابلية التوجيه. كما أنه جعل من الصعب على الذكاء الاصطناعي كسر الشخصية ، مما يعني أنه من غير المرجح أن يفشل عند تطبيقه في تطبيق ما للعب شخصية معينة.

يمكن للمطورين وصف أسلوب الذكاء الاصطناعي الخاص بهم ومهمته من خلال وصف الاتجاه في رسالة "النظام". تسمح هذه الرسائل لمستخدمي واجهة برمجة التطبيقات (API) بتخصيص تجربة المستخدم بشكل كبير ضمن حدود معينة. نظرًا لأن هذه الرسائل هي أيضًا أسهل طريقة "لكسر حماية" النموذج ، فإنها تعمل أيضًا على جعلها أكثر أمانًا. أظهر العرض التوضيحي لـ GPT-4 هذه النقطة من خلال جعل المستخدم يحاول إيقاف GPT-4 من كونه مدرسًا سقراطيًا والإجابة على استفساره. ومع ذلك ، رفض النموذج كسر الشخصية.

4. أمان

أمضت شركة OpenAI ستة أشهر في صنع GPT-4 أكثر أمانًا واتساقًا. تدعي الشركة أنها أقل احتمالًا بنسبة 82٪ للرد على طلبات المحتوى غير اللائق أو غير المسموح به ، و 29٪ على الأرجح الاستجابة وفقًا لسياسات OpenAI للطلبات الحساسة ، ومن المرجح أن ينتج 40٪ ردود فعل واقعية مقارنة بـ GPT-3.5.

إنها ليست مثالية ، ولا يزال بإمكانك توقع حدوث "هلوسة" من وقت لآخر ويمكن أن تكون خاطئة في تنبؤاتها. بالتأكيد ، تمتلك GPT-4 تصورات وقوة تنبؤ أفضل ، ولكن لا يزال عليك عدم الوثوق بشكل أعمى بالذكاء الاصطناعي.

5. تحسينات في الأداء

بعيدًا عن تقييم أداء النموذج في الاختبارات البشرية ، قامت OpenAI أيضًا بتقييم الروبوت وفقًا للمعايير التقليدية المصممة لنماذج التعلم الآلي.

تدعي أن GPT-4 "يتفوق بشكل كبير على" LLMs الموجودة و "معظم النماذج الحديثة." وتشمل هذه المعايير MMLU المذكورة أعلاه ، وتحدي استدلال AI2 (ARC) ، و WinoGrande ، و HumanEval ، و Drop ، وكلها تختبر القدرات الفردية.

ستجد نتائج مماثلة عند مقارنة الأداء على معايير الرؤية الأكاديمية. تتضمن الاختبارات التي يتم إجراؤها VQAv2 و TextVQA و ChartQA و AI2 Diagram (AI2D) و DocVQA و Infographic VQA و TVQA و LSMDC ، وكلها تتصدرها GPT-4. ومع ذلك ، فقد ذكرت شركة OpenAI أن نتائج GPT-4 في هذه الاختبارات "لا تمثل تمامًا مدى قدراتها" حيث يواصل الباحثون العثور على أشياء جديدة وأكثر تحديًا يمكن للنموذج معالجتها.

خطوة صغيرة لـ GPT-4 ، قفزة عملاقة للذكاء الاصطناعي

بمزيد من الدقة وسلامة الاستخدام والقدرات المتقدمة ، تم إصدار GPT-4 للجمهور عبر خطة الاشتراك الشهري ChatGPT + التي تكلف 20 شهريًا. بالإضافة إلى ذلك ، دخلت OpenAI في شراكة مع منظمات مختلفة لبدء بناء منتجات مواجهة للمستهلكين باستخدام GPT-4. قامت Microsoft Bing و Duolingo و Stripe و Be My Eyes و Khan Academy ، من بين آخرين ، بتطبيق GPT-4 في منتجاتهم.

قد يكون GPT-4 تحديثًا تدريجيًا على GPT-3.5 ، لكنه يعد فوزًا كبيرًا للذكاء الاصطناعي بشكل عام. نظرًا لأن النموذج يمكن الوصول إليه بشكل أكبر ، لكل من المستخدم العادي والمطورين من خلال واجهة برمجة التطبيقات الخاصة به ، يبدو أنه سيقدم حالة جيدة لتطبيقات LLM عبر الحقول.