هوش مصنوعی آزمایشی وانیلا ماوریک متا از رقبایش عقب ماند
به گزارش بی بی سرور، متا طی روزهای گذشته به علت استفاده از یک نسخه آزمایشی و منتشر نشده از هوش مصنوعی مدل Llama ۴ Maverick برای دستیابی به امتیاز بالاتری در یک بنچمارک با انتقادات زیادی روبرو شد.
به گزارش بی بی سرور به نقل از تک کرانچ، این رویداد سبب شد نگهدارندگان این بنچمارک عذرخواهی کنند و سیاست هایشان را تغییر دهند و به vanilla Maverick اصلاح نشده امتیاز دهند. نسخه اصلاح نشده ماوریک یا «Llama-۴-Maverick-۱۷B-۱۲۸E-Instruct»در رده ای پایین تر از مدلهای جی پی تی ۴-o اوپن ای آی، کلاود ۳.۵ سونت شرکت آنتروپیک و جمینای ۱.۵ گوگل قرار گرفته است. خیلی از این مدلهای هوش مصنوعی فقط چند ماه از عرضه شان گذشته است. متا شنبه هفته گذشته با انتشار جدولی توضیح داد Llama-۴-Maverick-۱۷B-۱۲۸E-Instruct آزمایشی برای محاوره بهینه شده سازی شده است. این بهینه سازی ها به صورت آشکار در LM Arena که امتیاز دهندگان انسانی بازده مدلها را مقایسه و گزینه مورد ترجیحشان را انتخاب می کنند، به خوبی انجام شد. LM Arena به علل مختلف معیاری معتبر برای عملکرد یک مدل هوش مصنوعی به حساب نمی آید. اما ساخت یک مدل برای عملکرد در یک بنچمارک علاوه بر آن که گمراه کننده است، سبب می شود توسعه دهندگان نرم افزار برای پیشبینی آن که هوش مصنوعی در بسترهای مختلف چقدر عملکرد مناسبی دارد، با چالش روبرو شوند. سخنگوی متا در اطلاعیه ای در اینباره نوشت متا نسخه های مختلفی از انواع سفارشی مدلهای هوش مصنوعی را آزمایش می کند. وی در اینباره اظهار داشت: Llama-۴-Maverick-۰۳-۲۶-Experimental در واقع یک نسخه بهینه چت بات است که ما آنرا آزمایش کردیم که در بنچمارک LM Arena هم عملکرد خوبی داشت. ما نسخه منبع باز این مدل را حالا عرضه کرده ایم و منتظریم تا ببینیم توسعه دهندگان نرم افزار چگونه Llama۴ را برای موارد استفاده خود شخصی سازی می کنند.
منبع: bbserver.ir
مطلب را می پسندید؟
(0)
(0)
تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب