می توان بخشید که فرض کنیم ماشین هایی که از هوش مصنوعی استفاده می کنند ، تعرفه ترجمه فارسی به انگلیسی در رویکرد خود خنثی باشند ، بدون تعصب و در واقع همه انسان ها را یکسان ببینند. با این حال ، به نظر می رسد یادگیری ماشینی در برابر انتخاب نگرش های نژادپرستانه و تبعیض نژادی آسیب پذیر است ، همانطور که برنامه پیام چینی WeChat به تازگی نشان داده است.

لجن نژادی
WeChat برای ترجمه بحث برانگیز خود از “hei laowai” تیتر اول روزنامه ها شده است. این یک عبارت خنثی در چین با ترجمه تحت اللفظی “سیاه پوست خارجی” است. با این حال ، در برخی موارد عملکرد ترجمه مبتنی بر شبکه عصبی WeChat برای ترجمه این عبارت به چیزی بسیار توهین آمیز تر: کلمه n یافت شده است.

شرایط ترجمه جالب است. Hei laowai در همه موارد به شرور نژادی تبدیل نشده است. وقتی در یک زمینه مثبت استفاده شد ، ترجمه تحت اللفظی اخبار اتروپات بود ، مانند مثال “خارجی های سیاه خوب است” (دستور زبان ضعیف دلیل دیگری بر عدم اعتماد به ترجمه ماشینی است ، اما این یک فرق با مقاله اصلی امروز است) نقطه!). با این حال ، هنگامی که با کلمات منفی تر مانند “دیر” ، “تنبل” یا “دزد” ترکیب می شود ، Hei laowai بسیار متفاوت ترجمه شده است. آن جیمز آمریکایی سیاه پوست ساکن شانگهای ابتدا خطا را به WeChat گزارش داد ، هنگامی که سیستم برای او ترجمه ترجمه ای ارائه داد: “سیاه چاله هنوز دیر است.”

یادگیری از انسان ها
به نظر می رسد مشکل این است که یادگیری ماشینی از این ماهیت با استفاده از مجموعه وسیعی از متون نوشته قیمت ترجمه کتاب شده توسط انسان انجام می شود. این متون شامل موارد بی شماری از نژادپرستی ، تبعیض جنسی ، سن گرایی و تقریباً هر نوع دیگر نژادپرستی قابل تصوری است ، هم در نگرش و هم در زبانی که استفاده می کنند. به همین ترتیب ، ما در حال آموزش سیستم های یادگیری ماشین هستیم که دقیقاً همان تعصبات و تعصبات موجود در مغز انسان را داشته باشند. در یک سطح ابتدایی ، ماشین ها از داده هایی که ما در آنها قرار می دهیم یاد می گیرند. اگر این داده ها دارای نقص باشند ، برنامه به دست آمده نشان دهنده این نقایص است.

جنسیت گرایی مبتنی بر ماشین
در مورد بحث و جدال WeChat ، الگوریتم سیستم پیام رسان اکنون به روز شده و استفاده از کلمه n را به طور کامل حذف کرده است. این اولین بار نیست که ثابت می شود یادگیری ماشین هنگام ارائه خدمات ترجمه نقص دارد .

گوگل به دلیل تعصب جنسیتی برخی از عبارات ترجمه شده ماشینی خود مورد توجه قرار گرفته است. یک شماره توسط ترکی و انگلیسی زبانان پرچم گذاری شد. تلاش آنها برای ترجمه عبارات ترکی خنثی از نظر جنسیت مانند “آنها پزشک هستند” و “آنها یک پرستار هستند” با تبدیل شدن به انگلیسی با فرضیاتی درباره جنسیت به عنوان بخشی از فرایند ترجمه روبرو شد. سیستم ترجمه گوگل فرض می کرد که پزشک در هنگام ارائه ترجمه های انگلیسی مرد و پرستار زن است.

خدمات ترجمه انسانی
این نمونه ها ، علیرغم پیشرفت های فنی ، نیاز مداوم به خدمات ترجمه انسانی را برجسته می کنند . به قول خود وی چت ،

“مانند سایر موتورهای ترجمه ماشینی ، که برای یادگیری و بهینه سازی بانک های واژگان خود به زمان نیاز دارند تا به ترجمه گوگل دقیق دست یابند ، موتور ترجمه خودکار ما هنوز در حال یادگیری و بهینه سازی است.”

اساساً ، فناوری ترجمه ماشینی هنوز به اندازه کافی خوب نیست که بتواند با ترجمه انسانی رقابت کند. ممکن است از نظر درک خود قابل استفاده باشد ، اما خطاهای دستوری و نقص زبانی به این معنی است که تهدیدی برای معیشت کسانی که زندگی خود را تأمین می کنند ارائه خدمات ترجمه حرفه ای فاصله زیادی دارد .

پتانسیل تعصبات یاد گرفته شده توسط ماشین را اضافه کنید و احتمالاً مدت زیادی طول می کشد تا یک سرویس ترجمه ماشینی واقعاً قانع کننده و قابل اعتماد ظاهر شود!

افکار نهایی
آیا فکر می کنید آیا هرگز می توان با ظرافت انسان به ماشینی آموزش داد تا ترجمه کند؟ آیا تلاش برای انجام چنین کاری ، براساس نقص خود ما ، همیشه نتایج نادرستی را به همراه خواهد داشت؟ نظرات خود را از طریق نظرات به اشتراک بگذارید.