ChatGPT
أعلنت شركة OpenAI عن توسيع الوصول إلى وضع "الصوت المتقدم" في ChatGPT، وهو ميزة جديدة تتيح للمستخدمين التفاعل الصوتي مع نموذج الذكاء الاصطناعي بطريقة أكثر طبيعية وسلسة.
يسمح هذا الوضع للمستخدم بمقاطعة ردود النموذج في أي وقت والتفاعل معه بناءً على العواطف التي يستشعرها من نبرة الصوت. وفيما يلي نظرة شاملة على ما يقدمه هذا التحديث وكيف يمكن للمستخدمين الاستفادة منه.
تقدم OpenAI عبر ميزة الصوت المتقدم تجربة تفاعلية محسنة للمستخدمين، حيث يمكن للنموذج استيعاب الأوامر الصوتية والتفاعل بمرونة مع المقاطعات أو التغييرات التي تحدث أثناء المحادثة.
هذا التحديث يحسن من قدرة ChatGPT على التكيف مع الأحاديث الطبيعية، خاصة عندما يكون هناك حاجة لرد سريع أو تعديل مسار المحادثة بناءً على تغيرات نبرة الصوت.
واحدة من أبرز الميزات التي أضيفت إلى هذا الوضع هي القدرة على استشعار العواطف من نبرة صوت المستخدم، على سبيل المثال، إذا شعر النموذج بالتوتر أو الغضب في صوت المستخدم، يمكنه تعديل استجاباته لتكون أكثر تفهمًا وتعاطفًا، مما يخلق تجربة حوارية أكثر إنسانية.
طرحت OpenAI هذا المفهوم لأول مرة في مايو عند الإعلان عن نموذج GPT-4o، ولكن الميزة كانت متاحة لفترة طويلة فقط لمجموعة محددة من المستخدمين المدعوين.
ومع إطلاق الميزة في يوليو، بدأ عدد محدود من المستخدمين في اختبارها وتقديم ملاحظاتهم. وبالرغم من أن هذه الميزة كانت تعتبر تحسينًا كبيرًا، فإن إتاحتها المحدودة أثارت إحباط بعض المستخدمين الآخرين الذين لم يتمكنوا من الوصول إليها في ذلك الوقت.
بالمقارنة مع وضع الصوت السابق، يقدم الإصدار الجديد تحسينات جوهرية على التفاعلات الصوتية. على سبيل المثال، لم يعد المستخدم بحاجة إلى الضغط على الشاشة لوقف أو تعديل الردود الطويلة من ChatGPT؛ يمكنه الآن ببساطة التحدث لمقاطعة النموذج.
كما يمكن تخصيص تجربة الاستخدام بشكل أكبر، من خلال قدرة النموذج على تذكر تفاصيل معينة عن المستخدم لتخصيص الردود وفقًا لهذه المعلومات.
وبالإضافة إلى ذلك، يأتي التحديث بأصوات جديدة مميزة تم تسجيلها بواسطة ممثلين صوتيين محترفين من جميع أنحاء العالم. يتمتع المستخدمون الآن بخيارات متنوعة، حيث يمكنهم الاختيار من بين خمسة أصوات مختلفة: Arbor، Maple، Sol، Spruce، وVale.
يُعتبر هذا التحديث تحسنًا كبيرًا على الأصوات السابقة، حيث تعرضت OpenAI لبعض الانتقادات بسبب تشابه الصوت النسائي السابق مع صوت الممثلة سكارليت جوهانسون، مما دفع الشركة إلى سحب هذا الصوت واستبداله بآخر.
حاليًا، يقتصر الوصول إلى وضع الصوت المتقدم على مستخدمي ChatGPT Plus الذين يدفعون اشتراكًا شهريًا بقيمة 20 دولارًا، وكذلك مستخدمي Team الذين يدفعون 30 دولارًا شهريًا مقابل حدود رسائل أعلى.
ومع أن الشركة لم تحدد موعدًا محددًا لإتاحة هذه الميزة للمستخدمين المجانيين، فإن الخطوة التالية تتضمن توفيرها لمشتركي خطط Enterprise وEdu، الذين يستخدمون الخدمات لأغراض تجارية وتعليمية.
مع إطلاق هذه الميزة، تؤكد OpenAI مرة أخرى على أهمية الأمان والخصوصية في التفاعلات الصوتية. تم اختبار نظام الصوت المتقدم من قبل خبراء خارجيين من مختلف أنحاء العالم، والذين تحدثوا بلغات متعددة مثل الإنجليزية والإسبانية والفرنسية، من بين 45 لغة إجمالاً. هذا التنوع في اللغات والمناطق الجغرافية يضمن أن النظام قادر على التعامل مع مجموعة واسعة من اللهجات والنبرات الصوتية.
ومع ذلك، تظل بعض التساؤلات حول الشفافية فيما يتعلق بسلامة النموذج. نماذج OpenAI، بما في ذلك GPT-4o، لا تزال مغلقة المصدر، مما يجعل من الصعب على الباحثين المستقلين تحليلها بشكل دقيق من حيث الأمان، والتحيز، والضرر المحتمل.
الثلاثاء، 19 نوفمبر 2024 09:56 ص
الإثنين، 18 نوفمبر 2024 09:23 ص
الثلاثاء، 12 نوفمبر 2024 09:44 ص
الأحد، 24 نوفمبر 2024 11:36 ص
الإثنين، 18 نوفمبر 2024 09:54 ص
ابحث عن مواصفات هاتفك
ماركات الموبايلات
أضغط هنا لمشاهدة كل الماركاتأحدث الموبايلات
Apple iPhone 13 Pro Max
Xiaomi Redmi Note 11
Samsung Galaxy A52s
OPPO Reno6 Pro 5G
realme GT2 Pro
vivo Y19
Honor 50 Pro
Huawei Nova 9
Nokia 8.3 5G
Back Top