جدیدترین اخبار فناوری و کسب‌وکار، تحلیل‌ها و گزارش‌های ویژه

مدیرعامل آنتروپیک ادعای «وُک» بودن شرکت از سوی دیوید ساکسِ مسئول AI ترامپ را رد کرد

مدیرعامل آنتروپیک ادعای «وُک» بودن شرکت از سوی دیوید ساکسِ مسئول AI ترامپ را رد کرد

۱ هفته پیش • هوش مصنوعی، انتروپیک، ترامپ، دیوید ساکس، بی‌طرفی الگوریتمی
مدیرعامل آنتروپیک ادعای دیوید ساکس، که در چارچوب تیم ترامپ به‌عنوان مسئول امور هوش مصنوعی معرفی می‌شود، مبنی بر «وُک» بودن این شرکت را رد کرد. این اختلاف نظر بازتاب‌دهنده تنش گسترده‌تر میان مباحث بی‌طرفی سیاسی، ایمنی و تنظیم‌گری محتوا در مدل‌های مولد است و می‌تواند بر رویکردهای حاکمیتی و روابط صنعت با سیاست‌گذاران اثر بگذارد.

مدیرعامل آنتروپیک ادعاهای دیوید ساکس — که در ارتباط با تیم ترامپ به‌عنوان مسئول سیاست‌های هوش مصنوعی مطرح است — مبنی بر «وُک» بودن این شرکت را رد کرد و تأکید نمود که رویکرد آنتروپیک بر ایمنی، بی‌طرفی و پایبندی به استانداردهای حرفه‌ای متمرکز است.

در محور این کشمکش لفظی، برچسب «وُک» قرار دارد؛ اصطلاحی که در فضای سیاسی و رسانه‌ای آمریکا اغلب برای نقد آنچه برخی «تعهد افراطی به حساسیت‌های اجتماعی» می‌خوانند به کار می‌رود. از سوی دیگر، شرکت‌های پیشروی هوش مصنوعی مانند آنتروپیک مدعی‌اند که سیاست‌های محتوا، مکانیزم‌های حاکمیتی و چارچوب‌های «ایمنی و همسوسازی» را برای کاهش سوءاستفاده، تعصب ناعادلانه و تولید محتوای زیان‌بار پیاده‌سازی می‌کنند. تضاد مفهومی میان «وُک» و «ایمنی» در قلب بسیاری از بحث‌های امروز صنعت قرار گرفته است.

آنتروپیک، توسعه‌دهنده سامانه‌های هوش مصنوعی مولد از جمله خانواده مدل‌های کلود (Claude)، بر فلسفه‌ای موسوم به «هوش مصنوعی قانون‌مدار» یا «قانون اساسیِ هوش مصنوعی» تکیه دارد؛ رویکردی که می‌کوشد با تعیین مجموعه‌ای از اصول راهنما، پاسخ‌های مدل را به سمت رفتار قابل پیش‌بینی‌تر، محترمانه‌تر و مطابق با معیارهای ایمنی سوق دهد. منتقدان گاه این سازوکارها را سبب محدودسازی بیش از حد یا سوگیری ایدئولوژیک تلقی می‌کنند؛ در حالی که مدافعان می‌گویند چنین راهکارهایی برای اعتمادپذیری، انطباق حقوقی و جلوگیری از آسیب ضروری است.

در فضای سیاست‌گذاری آمریکا، اصطلاح «مسئول هوش مصنوعی» یا «AI czar» معمولاً تعبیری غیررسمی برای توصیف شخص یا نهادی است که نقش هماهنگی و هدایت سیاست‌ها در حوزه هوش مصنوعی را بر عهده می‌گیرد. در این چارچوب، اشاره به دیوید ساکس — سرمایه‌گذار و کارآفرین فناوری — به‌عنوان چهره محوری در سمت‌وسوی دیدگاه‌های تیم ترامپ درباره AI، بار معنایی قابل‌توجهی دارد؛ زیرا اظهارنظرهای چنین فردی می‌تواند سیگنالی از خطوط کلی انتظارات سیاستی یا نگرانی‌های احتمالی نسبت به بازیگران اصلی صنعت تلقی شود.

اتهام «وُک بودن» یک شرکت فناوری در عمل به دو پرسش بنیادین گره می‌خورد: نخست این‌که آیا سیاست‌های محتوایی و کنترل‌های ایمنی، ناخواسته رنگ‌وبوی سیاسی به خود می‌گیرند؟ دوم این‌که معیارهای «بی‌طرفی» در سامانه‌هایی که بر داده‌های عظیم و ناهمگن آموزش یافته‌اند چگونه تعریف و اعمال می‌شود؟ پاسخ به هر دو پرسش آسان نیست؛ زیرا مجموعه داده‌ها، معماری مدل‌ها، تصمیمات حاکمیتی و فشارهای تنظیم‌گری همه می‌توانند به‌طور هم‌زمان روی خروجی‌ها اثر بگذارند.

از منظر شرکتی، آنتروپیک معمولاً تأکید می‌کند که سیاست‌هایش از ضرورت‌های ایمنی و انطباق حقوقی — مانند پیشگیری از تهییج خشونت، تبعیض غیرقانونی یا انتشار اطلاعات خطرناک — الهام می‌گیرد. این شرکت همچنین در ارتباطات عمومی خود بر همکاری با متخصصان حوزه اخلاق، امنیت سایبری و حقوق تاکید کرده و می‌گوید تلاش دارد میان دسترسی مسئولانه و آزادی مشروع کاربران توازن برقرار کند. چنین رویکردی، در نگاه موافقان، پیش‌شرطی برای پذیرش سازمانی و حکمرانی مسئولانه هوش مصنوعی است.

در سوی مقابل، منتقدان استدلال می‌کنند اگر معیارهای ایمنی به‌طور مبهم یا گزینشی تعریف شوند، ممکن است به اعمال سانسور یا سوگیری منجر گردد. آن‌ها هشدار می‌دهند که سیستم‌های مولد، به‌دلیل قدرت و نفوذ گسترده، باید به‌گونه‌ای طراحی شوند که به تنوع دیدگاه‌ها احترام بگذارند و از ترجیح‌گذاری‌های ایدئولوژیک بپرهیزند. از این منظر، هرگونه نشانه از «سوگیری سیستمی» می‌تواند سرمایه اجتماعی چنین فناوری‌هایی را تضعیف کند.

واقعیت این است که صنعت در آستانه بلوغ، میان دو محور فشار قرار دارد: محور نخست، خواسته‌های سیاست‌گذاران و جامعه برای کاهش خطرات، حفاظت از کودکان، مقابله با اطلاعات گمراه‌کننده و کاهش تبعیض الگوریتمی است؛ محور دوم، مطالبه کاربران حرفه‌ای و پژوهشگران برای انعطاف، قابلیت تحقیق‌پذیری، شفافیت و حداقلی‌سازی موانع دسترسی. آنتروپیک و رقبای آن — از جمله بازیگران مطرح دیگری در حوزه مدل‌های زبانی بزرگ — همگی در حال آزمون‌وخطا برای یافتن نقطه تعادل‌اند.

دیوید ساکس به‌عنوان چهره‌ای شناخته‌شده در اکوسیستم فناوری سیلیکون‌ولی، تجربه سرمایه‌گذاری خطرپذیر و فعالیت اجرایی در شرکت‌های برجسته را در کارنامه دارد. هنگامی که چنین فردی درباره جهت‌گیری فرهنگی یا محتوایی یک مدل یا شرکت اظهار نظر می‌کند، این سخن در فضای عمومی پژواک پیدا می‌کند و می‌تواند به بحث‌های دامنه‌دار درباره کیفیت و عدالت خروجی‌های مدل‌ها دامن بزند. واکنش مدیرعامل آنتروپیک نیز از همین منظر اهمیت دارد: شرکتی که در خط مقدم توسعه مدل‌های مولد قرار دارد، ناگزیر باید اعتبار و بی‌طرفی خود را به‌شکلی روشن توضیح دهد.

مسئله «بی‌طرفی» در مدل‌های زبانی بزرگ، هم فنی است و هم اخلاقی. از منظر فنی، انتخاب داده‌های آموزشی، راهبردهای پاک‌سازی داده، وزن‌دهی نمونه‌ها، تنظیمات یادگیری تقویتی با بازخورد انسان (RLHF) و طراحی سیاست‌های ایمنی، همگی قابلیت اثرگذاری بر گرایش‌های خروجی را دارند. از منظر اخلاقی و حقوقی، شرکت‌ها باید شرح دهند که چگونه میان آزادی بیان کاربران، الزامات قانون، استانداردهای پلتفرم و توقعات بازار توازن برقرار کرده‌اند و چگونه سازوکارهای اعتراض و بازبینی را برای موارد خطا یا سوگیری فراهم می‌کنند.

برای مشتریان سازمانی — شامل بانک‌ها، شرکت‌های بهداشتی، بازیگران دولتی و صنایع حساس — موضوعی مانند «وُک بودن» یا «سوگیری سیاسی» نه صرفاً یک بحث فرهنگی، بلکه یک ریسک عملیاتی است. این مشتریان معمولاً به دنبال ضمانت‌هایی هستند که نشان دهد مدل‌ها، در سناریوهای حساس، پاسخ‌های قابل اتکا، سازگار با قوانین و عاری از تبعیض ارائه می‌دهند. به همین دلیل، ارائه اسناد فنی شفاف، ممیزی توسط اشخاص ثالث و کانال‌های رسیدگی به شکایات برای شرکت‌هایی نظیر آنتروپیک اهمیت مضاعف دارد.

این جدال واژگانی همچنین پرسشی پیرامون نقش دولت‌ها در تنظیم‌گری هوش مصنوعی را برجسته می‌کند: آیا تمرکز بر «خطرات سیستماتیک» و «استفاده‌های پرخطر» باید با خطوط راهنما در زمینه بی‌طرفی سیاسی تکمیل شود؟ یا آن‌که چارچوب‌های موجود — مانند استانداردهای مدیریت ریسک و اصول عمومی عدم تبعیض — کفایت می‌کنند؟ پاسخ به این پرسش‌ها نه‌تنها جهت سیاست‌گذاری را تعیین می‌کند، بلکه واکنش بازار و مسیر توسعه محصول را نیز شکل می‌دهد.

واقعیت دیگر این است که موضوع «سوگیری» منحصر به حوزه سیاست نیست. مدل‌های مولد ممکن است نسبت به جنسیت، قومیت، سن، زبان و مناطق جغرافیایی نیز سوگیری نشان دهند. مقابله با این پدیده نیازمند رویکردی چندلایه است: بهبود داده‌ها، روش‌های ارزیابی منصفانه، آموزش مبتنی بر قیود، و تست‌های دقیق در سناریوهای واقعی. شرکت‌هایی که می‌خواهند ادعای بی‌طرفی را جدی بگیرند، باید فراتر از بیانیه‌های عمومی، شواهد عملی و قابل ممیزی ارائه دهند.

با این حساب، رد ادعای «وُک بودن» از سوی مدیرعامل آنتروپیک را می‌توان تلاشی برای حفاظت از برند، تقویت اعتماد سرمایه‌گذاران و حفظ روابط با نهادهای تنظیم‌گر دانست. در عین حال، ادامه گفت‌وگو میان منتقدان و مدافعان، به‌ویژه با مشارکت کارشناسان مستقل، برای روشن‌تر شدن استانداردها ضروری است. هرچه معیارهای سنجش بی‌طرفی و ایمنی دقیق‌تر و شفاف‌تر شوند، امکان قضاوت منصفانه‌تر درباره عملکرد واقعی سیستم‌ها افزایش می‌یابد.

برای کاربران نهایی، آنچه اهمیت عملی دارد، کیفیت تجربه است: آیا پاسخ‌های مدل دقیق، مفید و سازگار با تقاضای کاری هستند؟ آیا امکان شخصی‌سازی کنترل‌ها، مشاهده دلایل محدودسازی محتوا و اعتراض به نتایج وجود دارد؟ این جنبه‌های عملی، بیش از هر برچسب سیاسی یا فرهنگی، بر پذیرش و مقیاس‌پذیری راهکارها اثر می‌گذارند.

در نهایت، اختلاف اخیر نشان می‌دهد که مسیر توسعه و حکمرانی هوش مصنوعی با مباحث اجتماعی و سیاسی گره خورده است. شرکت‌ها باید با ادبیاتی دقیق و مستند، به شبهات پاسخ دهند و در عین دفاع از اصول ایمنی، حساسیت‌های مربوط به آزادی بیان و تنوع دیدگاه‌ها را نیز لحاظ کنند. چنین تعادلی، اگر موفقیت‌آمیز باشد، می‌تواند به افزایش اعتماد عمومی و شفاف‌تر شدن مرزهای مسئولیت در این صنعت نوپا بینجامد.

  • اتهام «وُک بودن» بیش از آن‌که یک برچسب فنی باشد، بازتاب‌دهنده نگرانی‌های فرهنگی و سیاسی است که باید با شواهد قابل سنجش پاسخ داده شود.
  • ایمنی، انطباق حقوقی و کاهش آسیب، اصول ضروری‌اند؛ اما طراحی آن‌ها باید به‌گونه‌ای باشد که از اعمال ترجیحات ایدئولوژیک جلوگیری کند.
  • شفافیت، ممیزی مستقل و سازوکار اعتراض، ابزارهای کلیدی برای مدیریت ادراک سوگیری و افزایش اعتماد سازمانی هستند.
  • گفت‌وگوی ساختاریافته میان شرکت‌ها، منتقدان و تنظیم‌گران، به روشن شدن استانداردها و معیارهای قابل اجراییابی کمک می‌کند.
  • برای کاربران، کارایی، دقت و قابلیت کنترل‌پذیری تجربه، تعیین‌کننده‌تر از منازعات اصطلاحی است.

پس زمینه

آنتروپیک یک شرکت پیشرو در حوزه هوش مصنوعی مولد است که توسط گروهی از پژوهشگران و مدیران باسابقه تأسیس شد و بر توسعه مدل‌های زبانی بزرگ با تأکید بر ایمنی و همسوسازی تمرکز دارد. محصولات این شرکت، از جمله خانواده «کلود»، برای طیفی از کاربردهای سازمانی و مصرفی مانند خلق متن، پاسخ‌گویی هوشمند، تحلیل داده و دستیارهای دیجیتال به‌کار می‌روند. فلسفه محوری آنتروپیک، که گاه با عنوان «قانون اساسیِ هوش مصنوعی» مطرح می‌شود، کوششی برای کدنویسی اصول رفتاری شفاف در فرآیند آموزش و تنظیم مدل است تا خروجی‌ها از استانداردهای ایمنی و احترام تبعیت کنند.

دیوید ساکس از چهره‌های شناخته‌شده اکوسیستم فناوری و سرمایه‌گذاری خطرپذیر است. او در مدیریت و سرمایه‌گذاری چندین شرکت فناوری نقش داشته و طی سال‌های اخیر در مباحث عمومی پیرامون سیاست و فناوری نیز فعال بوده است. اشاره به او به‌عنوان «مسئول هوش مصنوعی ترامپ» در گزارش‌های رسانه‌ای، صرف‌نظر از جنبه‌های رسمی یا ساختاری، نشان‌دهنده انتظاری است که بخش‌هایی از افکار عمومی از نقش‌آفرینی او در جهت‌گیری سیاست‌های AI مرتبط می‌دانند. به همین دلیل، اظهاراتش درباره سوگیری یا جهت‌گیری فرهنگی شرکت‌های بزرگ هوش مصنوعی، به‌سرعت وارد مدار توجه عموم و بازیگران بازار می‌شود.

اصطلاح «وُک» در گفتمان معاصر آمریکا کاربردی بحث‌انگیز دارد. برخی آن را نشانه حساسیت اخلاقی نسبت به تبعیض و بی‌عدالتی می‌دانند؛ در حالی که گروهی دیگر از آن برای نقد آنچه «افراط در اصلاح‌طلبی فرهنگی» تلقی می‌کنند استفاده می‌کنند. در صنعت هوش مصنوعی، این واژه غالباً زمانی به‌کار می‌رود که منتقدان احساس کنند سیاست‌های محتوا یا نتایج مدل‌ها، بی‌طرفی را نقض یا دیدگاه‌های خاصی را ترجیح می‌دهد. اما تعیین مرز دقیق میان «ایمنی لازم» و «سوگیری ناخواسته» به دلیل پیچیدگی فنی و تنوع انتظارات جامعه آسان نیست.

در سطح سیاست‌گذاری، کشورها در سال‌های اخیر چارچوب‌هایی برای مدیریت ریسک هوش مصنوعی پیشنهاد کرده‌اند. در ایالات متحده، اسناد راهنما پیرامون حقوق و ایمنی دیجیتال، و در اروپا، قوانین جامع‌تری برای دسته‌بندی ریسک و الزام‌آوری ارزیابی‌ها مطرح شده است. همچنین نهادهای استانداردسازی، مانند مراکز تخصصی مدیریت ریسک، چارچوب‌هایی برای شناسایی، ارزیابی و کاهش خطرات ارائه می‌دهند که مورد استناد صنعت قرار گرفته‌اند. این رویکردها بر نیاز به مستندسازی، قابلیت ممیزی و پاسخ‌گویی تأکید دارند.

چالش «بی‌طرفی» از زاویه‌ای دیگر نیز قابل بررسی است: مدل‌های زبانی بزرگ با داده‌های وسیع اینترنتی آموزش می‌بینند که خود بازتاب‌دهنده فرهنگ، تعصبات تاریخی و تنوع نامتوازن منابع است. حتی با بهترین نیت‌ها، اگر پالایش داده و طراحی الگوریتم‌های کنترلی به‌دقت انجام نشود، خروجی می‌تواند حامل سوگیری باشد. در نتیجه، شرکت‌ها به سمت ترکیب رویکردهای فنی (مانند نمونه‌برداری متوازن، وزن‌دهی و فیلتر هوشمند)، فرآیندهای ارزیابی چندبعدی (معیارهای انصاف، دقت، فراگیری) و حکمرانی محتوا (سیاست‌های شفاف و سازوکار اعتراض) حرکت کرده‌اند.

از منظر بازار سرمایه، هرگونه مناقشه عمومی بر سر بی‌طرفی یا سوگیری مدل‌ها ممکن است بر ارزش برند، روابط با مشتریان سازمانی و نگاه تنظیم‌گران اثر بگذارد. شرکت‌هایی که با شفافیت درباره محدودیت‌ها، برنامه‌های بهبود و نتایج ارزیابی‌های مستقل سخن می‌گویند، معمولاً اعتماد بیشتری جلب می‌کنند. به‌عکس، ابهام یا پاسخ‌های تدافعی بدون شواهد فنی، می‌تواند تردیدها را تشدید سازد.

در این میان، گفت‌وگوی حرفه‌ای و مبتنی بر داده، بهترین مسیر برای حل اختلافات است. اگر یک طرف ادعای سوگیری یا «وُک بودن» مطرح می‌کند، ارائه آزمون‌های مرجع، سناریوهای بازتولیدپذیر و نتایج ممیزی‌های مستقل، زمینه‌ای عینی برای قضاوت فراهم می‌کند. از طرف دیگر، شرکت‌ها باید آمادگی داشته باشند که در صورت شناسایی سوگیری یا نقص، به‌طور شفاف زمان‌بندی و برنامه اصلاحی ارائه دهند.

در نهایت، اهمیت خبر اخیر فراتر از یک اظهار نظر یا واکنش رسانه‌ای است. این رویداد بخشی از پازلی بزرگ‌تر درباره آینده حاکمیت و اعتماد در اکوسیستم هوش مصنوعی است: جایی که بازیگران خصوصی، مقامات سیاست‌گذار و جامعه مدنی باید بر سر معیارهای مشترک برای ایمنی، بی‌طرفی و پاسخ‌گویی به توافق برسند. هر قدم به‌سوی شفافیت و استانداردسازی، به نفع همه ذی‌نفعان — از کاربر نهایی تا توسعه‌دهنده و ناظر — خواهد بود.


منابع مرتبط