تصور کنید که دهه ۱۹۵۰ میلادی است و یکی از نخستین کامپیوترهای دنیا را در اختیار دارید.

تصور کنید که دهه ۱۹۵۰ میلادی است و یکی از نخستین کامپیوترهای دنیا را در اختیار دارید. شرکتی به شما مراجعه می کند و اینطور می گوید: ما یک متن ۱۰ میلیون کلمه ای داریم و می خواهیم آن را از آن زبان فرانسوی به انگلیسی ترجمه کنیم. می توانیم برای این کار مترجم استخدام کنیم، اما آیا راه دیگری وجود دارد که بتوانید این کار را به صورت خودکار برایمان انجام دهید؟

در این دوران (یعنی دهه ۱۹۵۰ میلادی) کامپیوترها همچنان پدیده ای تازه محسوب می شوند و هیچکسی ترجمه خودکار را با استفاده از آنها انجام نداده است اما شما تصمیم می گیرید که تلاشتان را برای انجام این کار بکنید.

برای این منظور برنامه ای می نویسید که هر جمله را بررسی کرده و سعی می کند که ساختار گرامری اش را درک کند. این برنامه به دنبال افعال می گردد، اسامی مختلفی را جستجو می کند که با آن فعل ها قابل استفاده هستند و صفات را تشخیص می دهد و در نهایت ساختار جمله را از فرانسه به انگلیسی بر می گرداند و با استفاده از یک دیکشنری فرانسه به انگلیسی کار ترجمه تک تک کلمات را انجام می دهد.

طی چندین دهه اخیر، اغلب سیستم های ترجمه کامپیوتری از این شیوه بهره می گرفتند و لیستی طولانی از قواعد را مورد استفاده قرار می دادند که ساختارهای زبانی را توضیح می دادند.

اما در اواخر دهه ۱۹۸۰ میلادی، تیمی متشکل از کارشناسان مرکز تحقیقاتی توماس واتسون متعلق به IBM که در یورک تاون هیت نیویورک قرار داشت تصمیم گرفتند که از رویکردی متفاوت برای این منظور بهره بگیرند.

در ادامه این مطلب با ما همراه باشید تا بیشتر در مورد سیر تحول صنعت ترجمه خودکار با استفاده از کامپیوتر بدانید.
آنها تقریبا هر آنچه که ما در مورد زبان می دانیم، از قواعد مربوط به زمان افعال گرفته تا کاربرد اسامی را استخراج کرده و نوعی الگوی آماری را با استفاده از آن ایجاد کردند.

تیم یاد شده برای این منظور شیوه ای هوشمندانه را به خدمت گرفتند و نسخه خطی مناقشات پارلمان بریتانیا تحت عنوان هانسارد را گرفتند که هم به انگلیسی موجود بود و هم فرانسوی.

در مرحله بعدی، این تیم با استفاده از یک کامپیوتر نسخه های انگلیسی و فرانسوی این سند را با هم مطابقت داده و روابط میان آنها را کشف کردند.

برای نمونه این کامپیوتر دریافت که معادل انگلیسی جملات حاوی عبارت فرانسوی bonjour دربرگیرنده کلمه Hello است که تقریبا در همان موقعیت مکانی قرار گرفته.

آن کامپیوتر چیزی در مورد کلمات یاد شده نمی دانست و کارش را بدون در اختیار داشتن دیکشنری یا قو��عد گرامری آغاز کرد. در واقع اصلا به این دو کتاب نیازی نداشت و در عوض صرفا به ارتباط میان دو کلمه یاد شده پی برد.

این برنامه با انجام چنین مقایسه هایی نوعی الگوی آماری را در مورد ارتباط پیدا کردن جملات فرانسوی با انگلیسی ایجاد کرد که در مورد کلمات و عبارات فرانسوی و انگلیسی هم صادق بود.

اگر بخواهیم به صورت دقیق تر بگوییم این کامپیوتر برای تخمین زدن احتمال وجود یک کلمه یا عبارت انگلیسی در جمله با در نظر داشتن کلمه یا عبارت موجود در ترجمه فرانسوی معادل آن از هانسارد استفاده کرد.

کامپیوتر همچنین از هانسارد برای تخمین زدن احتمال چینش کلمات و عبارات در داخل جملات ترجمه شده استفاده کرد و با بهره گیری از این الگوی آماری، موفق شد که یک جمله فرانسوی جدید را دریافت کرده (جمله ای که تا آن زمان ندیده بود) و سپس محتمل ترین معادل انگلیسی برای آن را ارائه نماید که در واقع همان ترجمه ارائه شده از سوی برنامه می شد.

این ایده زمانی که برای نخستین بار مطرح گردید از نظر بسیاری مضحک و عجیب به نظر آمد و در واقع هرآنچه در مورد زبان می دانستیم را باطل کرد.

در این الگو خبری از مفهوم فاعل، مسند یا مفعول نیست و در واقع اصلا هیچکدام از بخش های ساختار زبانی که پیشتر در ذهنمان شکل گرفته بود به چشم نمی خورد. نکته دیگر اینکه این مدل هیچ تلاشی برای درک معنای جملات نمی کند و با این حوزه کاری ندارد.

علیرغم همه این ضعف ها، باید بگوییم تیم پژوهشگران IBM دریافتند که این رویکرد به مراتب بهتر از سیستم های مبتنی بر مفاهیم زبانی پیچیده کار می کند. در واقع سیستم ارائه شده توسط این تیم به قدری موفق ظاهر شد که بهترین سیستم های مدرن دنیا برای ترجمه زبان (نظیر گوگل ترنسلیت) هم برپایه ایده ای مشابه به آن طراحی شدند.

اما الگوهای آماری صرفا در ترجمه های کامپیوتری به کار نمی آیند. به بیان دیگر مشکلاتی به مراتب بیشتر از این، در رابطه با یک زبان وجود دارد که این الگوها می توانند در حل شان سودمند واقع شوند و حتی بهتر از راهکارهای سنتی و متداول زبانی عمل کنند.

برای نمونه بهترین سیستم های کامپیوتری مدرن برای تشخیص کلام بر پایه مدل های آماری زبان انسان طراحی شده اند و موتورهای جستجوی آنلاین نیز از همین الگوها برای درک درخواست های جستجو و بهترین پاسخ ها استفاده می کنند.

البته بسیاری از کارشناسان زبان که به شیوه های سنتی آن را فرا گرفته اند، نسبت به سودمندی این قبیل الگوها تردید دارند. برای نمونه چامسکی زبان شناس سرشناس آمریکایی در این رابطه می گوید:

کارهای زیادی برای تحلیل آماری دقیق زبان صورت می گیرد و در این قبیل فعالیت ها توجه ای به ساختار حقیقی زبان نمی شود و در نتیجه تا آنجا که من اطلاع دارم نتایج آنها نیز با موفقیت چندانی روبرو نیست. در واقع این روش ها با استفاده از داده های تحلیل نشده، به موفقیت دست پیدا می کنند که به باور من شیوه ای جدید برای پیروزی است اما به یاد ندارم که در طول تاریخ علم از این شیوه استفاده شده باشد.

چامسکی این رویکرد را با یک الگوی آماری از رفتار حشرات مقایسه می کند. برای نمونه پژوهشگران ممکن است که با در اختیار داشتن تعدادی ویدئو از نحوه حرکت زنبورهای عسل الگویی را پیشنهاد کنند که رفتار بعدی این حشرات را پیش بینی می کند. اما به اعتقاد چامسکی این الگو درک درستی از نحوه فعالیت زنبورها ندارد.

NY_4color-482x289
این نقشه نیویورک را در سال ۱۸۹۶ میلادی نشان می دهد. چهار رنگ به کار گرفته شده در آن نشان می دهد که هر نقشه را می توان به گونه ای با استفاده از چهار رنگ تقسیم بندی کرد که هیچ دو ناحیه مجاور به هم آن رنگ یکسانی نداشته باشند.

مثال هایی مشابه به این نیز در دنیای علم وجود دارد که صرفا هم به زبان شناسی مربوط نمی شود. برای نمونه در علم ریاضیات، حل کردن مسائل با استفاده از راهکارهای تولید شده توسط کامپیوتر بیش از هر زمان دیگری رایج می شود. نخستین نمونه از این شیوه حل مساله در سال ۱۹۷۶ میلادی رخ داد؛ درست زمانی که کنث اپل و ولفگانگ هاکن قضیه چهار رنگ را ارائه کردند که بر اساس آن هر نقشه را می توان با استفاده از چهار رنگ به شیوه ای رنگ آمیزی کرد که هیچ دو ناحیه مجاور به هم آن رنگ مشابه نداشته باشند.

برهان کامپیوتری ارائه شده توسط این دو نفر جنجال های زیادی را بر پا کرد. در واقع آن برهان بیش از اندازه طولانی بود و به همین دلیل امکان بررسی صحت آن توسط انسان وجود نداشت. برخی ریاضیدانان اینطور اظهار داشتند که نمی توان قضیه مطرح شده را تا زمانی که شواهد کافی دال بر قابل درک بودن آن برای انسان به دست آید، کاملا اثبات شده قلمداد کرد.

این روزها برهان های ارائه شده برای قضایای ریاضی هیچگونه شکل قابل درکی برای انسان ندارند. اما هرچه زمان می گذرد، کامپیوترها نقش به مراتب پررنگ تری را در ارائه برهان و استدلال برای حل قضایای ریاضی ایفا می کنند.

دورون زیلبرگر یکی از ریاضیدانان مطرح جهانی در دانشگاه Rutgers نیوجرسی است که نام کامپیوتر خود (Shalosh B. Ekhad) را به عنوان یکی از مولفان کار تحقیقاتی اش ذکر کرده است.

اما همه ریاضیدانان هم از این قضیه خرسند نیستند. پی دیلاین یکی از ریاضی دانان مشهور جهان همسوی تردیدهای مطرح شده از سوی چامسکی اینطور اظهار می دارد: من اعتقادی به برهان ها و روش های حل مساله ارائه شده توسط کامپیوترها ندارم. شاید آدم خودخواهی به نظر بیایم اما صرفا برهان هایی را قبول دارم که قادر به درک شان هستم.

شاید در ظاهر، ترجمه آماری و برهان های ارائه شده با کمک کامپیوترها متفاوت از یکدیگر به نظر بیایند اما این دو، یک ویژگی مشترک دارند: در علم ریاضی، یک برهان صرفا استدلالی برای نتیجه نیست بلکه نوعی توضیح در مورد علت درست بودن یک نتیجه است.

بنابراین برهان های ارائه شده با کمک سیستم های کامپیوتری توضیحاتی تولید شده توسط این دستگاه ها هستند که در مورد قضایای ریاضی مطرح می شوند.

به همین نحو، در ترجمه کامپیوتری، مدل های آماری توضیحاتی ضمنی از ترجمه ها هستند. اگر بخواهیم ساده تر بگوییم، این توضیحات به ما می گویند که به عنوان مثال، به جای عبارت bonjour باید از کلمه Hello استفاده کرد چراکه کامپیوتر (با استفاده از سند ذکر شده در ابتدای مطلب) تشخیص داده این واژه قبلا تقریبا به همین شکل ترجمه شده است.

بنابراین می توان هم ترجمه های آماری و هم برهان های ارائه شده با کمک کامپیوتر را به عنوان نمونه هایی از یک پدیده کلی تر در نظر گرفت: ظهور توضیحات ارائه شده با کمک کامپیوتر.

این توضیحات روز به روز اهمیت بیشتری پیدا می کنند و این مساله نتنها در ریاضیات و زبان شناسی بلکه در تمامی حوزه های علم و دانش بشری مشهود است.

اما همانطور که نوابغی نظیر چامسکی و دیلاین (و البته منتقدین دیگر رشته ها) اشاره کرده اند، این توضیحات می توانند راضی کننده نباشند.

این گروه از افراد معتقدند که تکنیک های کامپیوتری مورد بحث توضیحاتی واقعی نیستند و نمی توان به آنها رجوع کرد. ممکن است یک دانشمندان سنتی با نظر چامسکی یا دیلاین موافق باشد و در نتیجه از همان برهان ها و الگوهای سنتی متداول و مرسوم زبانی استفاده نماید.

از طرف دیگر، یک دانشمندان جوان و جویای نام احتمالا اینطور استدلال می کند که برای چه کسی اهمیت دارد، بگذارید از همان شیوه ای استفاده نماییم که موثرتر است و راهکارهای ارائه شده با کمک کامپیوتر را جدی بگیریم.

اما بهتر از هر دوی این رویکردها آن است که هم انتقادات مطرح شده و هم توضیحات ارائه شده با کمک سیستم های کامپیوتری را جدی بگیریم. در این صورت ممکن است که پرسش های زیر را از خود سوال کنیم: توضیحات سنتی چه خصوصیاتی دارند که در توضیحات ارائه شده با کمک کامپیوتر نمی توان آنها را یافت نمود؟ و اینکه چطور می توان توضیحات کامپیوتری را بهبود بخشید تا آن خصوصیات را پیدا کنند؟

برای نمونه آیا ممکن است که با استفاده از الگوهای آماری زبانی، وجود فعل، اسم و دیگر بخش های جمله را به اثبات رساند؟ به بیان دیگر ممکن است که بتوانیم افعال را به عنوان بخش های مبرم آن الگوی آماری رویت کنیم.

حتی بهتر از این، آیا چنین استنتاجی می تواند درک ما نسبت به گروه های زبانی موجود را تعمیق نماید؟ برای مثال تصور کنید که با استفاده از این الگوها، واحدهای پیشتر ناشناخته زبانی را کشف می کنیم یا حتی ممکن است که قواعد گرامری تازه را یاد بگیریم و دانش زبان شناسی خود در سطح مفهومی را گسترده تر نماییم.

تا به امروز چنین دستاوردی لااقل در حوزه زبان شناسی رخ نداده است اما رویدادهایی مشابه ای در دیگر رشته ها اتفاق می افتد. برای نمونه، زیست شناسان هر روز بیشتر از مدل های ژنتیکی و کامپیوتری برای دریافت حقایق سطح بالاتر در مورد این شاخه از علم بهره می گیرند.

دانشمندان با استفاده از کامپیوتر و مقایسه ژنوم کروکودیل ها دریافته اند کروکودیل نیل که پیشتر تصور می شد تنها یک گونه داشته باشد در اصل دو گونه متفاوت دارد.

و در سال ۲۰۱۰ میلادی نیز گونه جدیدی از انسان به نام Denisovans از طریق تحلیل ژنوم ذره ای که متعلق به استخوان انگشت آن بود کشف گردید.

استدلال جالب دیگری نیز از سوی هاد لیپسون از دانشگاه کلمبیا مطرح گردید. لیپسون و همکارانش الگوریتم هایی را توسعه دادند که پس از دریافت داده های خام در مورد مشاهدات صورت گرفته از یک سیستم مکانیکی به صورت عقب گرد به تحلیل آن اطلاعات می پردازد تا «قوانین طبیعی» مربوط به آن داده ها را کشف کند. به طور مشخص این الگوریتم ها قادرند قوانین طبیعت و کمیت های مربوط به آن سیستم را تشخیص دهند.

فرایند مذکور قادر است که اطلاعات توجهی از یک سیستم را به لحاظ مفهومی در اختیار این دانشمندان قرار دهد. تا به امروز، لیپسون با استفاده از این الگوریتم ها موفق شده که تنها سیستم های ساده را تحلیل کند (هرچند که برای این منظور داده های خام پیچیده ای را مورد استفاده قرار داده است).

در واقع دانشمندان از یک شرایط بسیار پیچیده آغاز می کنند و سپس با استفاده از یک کامپیوتر توضیحات موجود را ساده می نمایند تا به درکی در سطح بالاتر دست پیدا کنند.

در هر صورت توضیحات ارائه شده از طریق کامپیوتر به قدری سودمند هستند که احتمالا هیچگاه کنار گذاشته نمی شوند. از طرفی ما نیز می توانیم انتظار داشته باشیم که توسعه چنین تکنیک هایی به جنبه ای بسیار مهم از پژوهش علمی ظرف دهه های آتی بدل گردد.

منبع: دیجیاتو

Tweet کامپیوترها چگونه حل مسائل را برای بشر ساده تر کرده اند؟ - تصویر 2
کلمات کلیدی :
نظرات بییندگان :

بهترین مشاغل و خدمات شهر خود را ، در سایت نشونه پیدا کنید.

مشاهده سایت نشونه