پرونده حقوقی پرسروصدایی که شرکت #متا را هدف گرفته، اسناد داخلی متعددی از این شرکت فاش کرده است. میان آنها، سندی وجود دارد که توجه برخی پژوهشگران هوش مصنوعی را جلب کرده و جزئیات تازهای درباره نحوه آموزش مدلهای هوش مصنوعی مانند Llama آشکار میکند.
در این اسناد توضیح داده شده که پژوهشگران متا از فرایندی به نام «Ablation» (ابلیشن) استفاده میکنند تا مشخص کنند کدام دادهها در بهبود عملکرد مدل Llama مؤثر بودهاند. واژه ابلیشن که از حوزه پزشکی وام گرفته شده، به فرایند حذف یا تخریب عمدی یک بخش برای بررسی تأثیر آن بر عملکرد کل سیستم اشاره میکند.
در حوزه هوش مصنوعی، ابلیشن به معنای حذف یا جایگزینی بخشی از سیستم یا دادههاست تا نقش آن قسمت در عملکرد نهایی مشخص شود.
در یکی از این آزمایشها، متا بخشی از دادههای آموزشی خود را با کتابهایی از پایگاه داده LibGen جایگزین کرده که غیرقانونی منتشر شدهاند سپس مدل Llama را مجدد آموزش داد تا اثر این جایگزینی را ارزیابی کند.