هوش مصنوعی چیست ؟

هوش مصنوعی چیست ؟ شهر دانش ایوان کسری
هوش مصنوعی چیست؟ هوش مصنوعی (AI) شاخه وسیعی از علوم کامپیوتر است که به ساخت ماشین‌های هوشمندی می‌پردازد که قادر به انجام وظایفی هستند که معمولاً به هوش انسانی نیاز دارند. چهار نوع هوش مصنوعی کدامند؟ ماشین های واکنش گرا(راکتیو)،حافظه محدود، تئوری ذهن، خودآگاهی، مثال هایی از هوش مصنوعی کدامند؟ سیری، الکسا و سایر دستیاران هوشمند، خودروهای خودران، مشاوران روبو، ربات‌های مکالمه، فیلتر هرزنامه‌های ایمیل، توصیه‌های نتفلیکس
فهرست مطالب

هوش مصنوعی چگونه کار می کند؟

رویکردها و مفاهیم هوش مصنوعی

کمتر از یک دهه پس از شکستن دستگاه رمزگذاری انیگما و کمک به نیروهای متفقین برای پیروزی در جنگ جهانی دوم، ریاضیدان آلن تورینگ با یک سوال ساده تاریخ را برای بار دوم تغییر داد:

آیا ماشین ها می توانند فکر کنند؟ آلن تورینگ(1950)

مقاله تورینگ “ماشین آلات محاسباتی و هوش” (1950) و آزمون تورینگ در پی آن، هدف و چشم انداز اساسی هوش مصنوعی را ایجاد کرد.

در هسته این مقاله، هوش مصنوعی شاخه ای از علوم کامپیوتر است که هدف آن پاسخ مثبت به سوال تورینگ است. این تلاش برای تکرار یا شبیه سازی هوش انسانی در ماشین ها است.

هدف گسترده هوش مصنوعی سوالات و بحث های زیادی را به وجود آورده است. به حدی که هیچ تعریف واحدی از این رشته به طور کلی پذیرفته نشده است.

آلن تورینگ (1950) : آیا ماشین ها می توانند فکر کنند؟ پدر علم کامپیوتر و هوش مصنوعی . شهر دانش ایوان کسری

مشکل اساس این تعریف از هوش مصنوعی تحت عنوان «ساخت ماشین‌هایی که هوشمند هستند» این است که واقعاً توضیح نمی‌دهد که هوش مصنوعی چیست؟ چه چیزی یک ماشین را هوشمند می کند؟ هوش مصنوعی یک علم میان رشته‌ای با رویکردهای متعدد است، اما پیشرفت‌ها در یادگیری ماشینی و یادگیری عمیق، تقریباً در هر بخش از صنعت فناوری یک تغییر الگو ایجاد می‌کند.

استوارت راسل و پیتر نورویگ در کتاب آموزشی نوآورانه خود تحت عنوان هوش مصنوعی: با رویکردی مدرن، با متمرکز کار خود پیرامون موضوع عوامل هوشمندی در ماشین‌ها، به بررسی پاسخ این سؤال می‌پردازند. با در نظر گرفتن این موضوع، هوش مصنوعی «مطالعه عواملی است که با ادراک از محیط، اعمالی را انجام می‌دهند». (راسل و نورویگ viii)

نورویگ و راسل در ادامه به بررسی چهار رویکرد مختلف می‌پردازند که از لحاظ تاریخی حوزه هوش مصنوعی را تعریف کرده‌اند:

  1. انسان اندیشی
  2. عقلانی فکر کردن
  3. انسانی عمل کردن
  4. منطقی عمل کردن

دو ایده اول مربوط به فرآیندهای فکری و استدلال است، در حالی که بقیه با رفتار سروکار دارند. نورویگ و راسل به ویژه بر عوامل منطقی تمرکز می کنند که برای دستیابی به بهترین نتیجه عمل می کنند، و خاطرنشان کردند: “همه مهارت های مورد نیاز برای آزمون تورینگ، به عامل اجازه می دهد تا منطقی عمل کند.” (راسل و نورویگ 4).

پاتریک وینستون، استاد هوش مصنوعی و علوم کامپیوتر فورد در MIT، هوش مصنوعی را اینگونه تعریف می‌کند: «الگوریتم‌هایی که توسط محدودیت‌ها فعال می‌شوند، در معرض نمایش‌هایی قرار می‌گیرند. این نمایش ها از الگو هایی پشتیبانی می‌کنند که هدفشان حلقه‌هایی است که تفکر، ادراک و عمل را به هم گره می‌زنند».

در حالی که این تعاریف ممکن است برای افراد معمولی انتزاعی به نظر برسند، اما به تمرکز این رشته به عنوان حوزه ای از علوم کامپیوتر کمک می کنند و طرحی برای تزریق ماشین ها و برنامه ها با یادگیری ماشین و سایر زیر مجموعه های هوش مصنوعی ارائه می دهند.

چهار نوع هوش مصنوعی

ماشین های واکنش گرا

یک ماشین واکنش‌گرا از ابتدایی‌ترین اصول هوش مصنوعی پیروی می‌کند و همانطور که از نامش پیداست، فقط قادر است از هوش خود برای درک و واکنش به دنیای مقابل خود استفاده کند. یک ماشین واکنش گرا نمی تواند یک حافظه را ذخیره کند و در نتیجه نمی تواند به تجربیات گذشته برای اطلاع رسانی تصمیم گیری در زمان واقعی تکیه کند.

درک جهان به طور مستقیم به این معنی است که ماشین‌های راکتیو فقط برای انجام تعداد محدودی از وظایف تخصصی طراحی شده‌اند. با این حال، محدود کردن عمدی جهان بینی یک ماشین واکنش گرا، هیچ نوع معیاری برای کاهش هزینه نیست، و در عوض به این معنی است که این نوع هوش مصنوعی قابل اعتمادتر و قابل اعتمادتر خواهد بود – هر بار به همان روشی به محرک های مشابه واکنش نشان می دهد.

یک نمونه معروف از ماشین های واکنش گرا Deep Blue(آبی عمیق) است که توسط IBM در دهه 1990 به عنوان یک ابررایانه برای بازی شطرنج طراحی شد و استاد بزرگ بین المللی گری کاسپاروف را در یک بازی شکست داد. دیپ بلو فقط می‌توانست مهره‌های روی صفحه شطرنج را شناسایی کند و بداند که هر کدام از آنها بر اساس قوانین شطرنج چگونه حرکت می‌کنند، موقعیت فعلی هر مهره را تصدیق کند و منطقی‌ترین حرکت را در آن لحظه تعیین کند.

شکست کاسپاروف از دیپ بلو در سال 1990 نمونه ای از ماشین های واکنش گرا در هوش مصنوعی است. شهر دانش ایوان کسری

کامپیوتر حرکات احتمالی آتی حریف خود را دنبال نمی کرد یا سعی نمی کرد مهره های خود را در موقعیت بهتری قرار دهد. هر بار که نوبت ماشین می شد، جدا از هر حرکت دیگری که از قبل انجام شده بود، به عنوان یک واقعیت پیش رو تلقی می شد.

دوره پیشنهادی شهر دانش: آموزش پایتون از صفر

نمونه دیگری از ماشین های واکنش گرا برای بازی،آلفا گو (AlphaGo) گوگل است. AlphaGo قادر به ارزیابی حرکت‌های آینده نیست، اما برای ارزیابی پیشرفت‌های بازی کنونی به شبکه عصبی خود متکی است، در نتیجه سبب برتری آن نسبت به Deep Blue در یک بازی پیچیده‌تر می‌دهد.همچنین AlphaGo به دلیل شکست دادن قهرمان بازی GO، لی سدل(Lee Sedol) در سال 2016، بر رقبای کلاس جهانی برتری داشت.

اگرچه از نظر دامنه محدود است و به راحتی تغییر نمی کند، هوش مصنوعی ماشین واکنش گرا می تواند به سطحی از پیچیدگی دست یابد و زمانی که برای انجام وظایف تکرارپذیر ایجاد شود، می توان به آن اطمینان نمود.

حافظه محدود

حافظه محدود این توانایی را دارد که داده‌ها و پیش‌بینی‌های قبلی را هنگام جمع‌آوری اطلاعات و سنجیدن تصمیمات بالقوه ذخیره کند – اساساً با بررسی گذشته به دنبال سرنخ‌هایی در مورد آنچه ممکن است در آینده رخ دهد، هست. هوش مصنوعی حافظه محدود پیچیده‌تر است و امکانات بیشتری را نسبت به ماشین‌های واکنش‌گرا ارائه می‌دهد.

حافظه محدود زمانی ایجاد می شود که یک تیم به طور مداوم الگویی را در مورد نحوه تجزیه و تحلیل و استفاده از داده های جدید آموزش دهد یا یک محیط هوش مصنوعی ساخته شود تا الگو ها به طور خودکار آموزش داده و تجدید شوند. هنگام استفاده از هوش مصنوعی حافظه محدود در یادگیری ماشین، شش مرحله باید دنبال شود:

  1. داده های آموزشی باید ایجاد شود
  2. الگو یادگیری ماشین باید ایجاد شود
  3. الگو باید قادر به پیش بینی باشد
  4. الگو باید قادر به دریافت بازخورد انسانی یا محیطی باشد
  5. بازخورد باید به عنوان داده ذخیره شود
  6. این مراحل باید به عنوان یک چرخه تکرار شوند

سه مدل اصلی یادگیری ماشینی وجود دارد که از هوش مصنوعی حافظه محدود استفاده می کنند:

  1. یادگیری تقویتی، که یاد می گیرد از طریق آزمون و خطای مکرر پیش بینی های بهتری انجام دهد
  2. حافظه کوتاه مدت بلند مدت (LSTM)، که از داده های گذشته برای کمک به پیش بینی مورد بعدی در یک دنباله استفاده می کند. LTSM ها اطلاعات جدیدتر را هنگام پیش‌بینی و کاستن داده‌های قدیمی تر در گذشته،  مهم‌تر می‌دانند، اگرچه هنوز از آن برای نتیجه‌گیری استفاده می‌کنند.
  3. شبکه‌های متضاد مولد تکاملی (E-GAN)، که در طول زمان تکامل می‌یابد، و رشد می‌کند تا مسیرهای کمی تغییر یافته را براساس تجربیات قبلی با هر تصمیم جدید کشف کند. این الگو دائماً به دنبال مسیری بهتر است و از شبیه‌سازی‌ها و آمار یا شانس برای پیش‌بینی نتایج در طول چرخه جهش تکاملی خود استفاده می‌کند.

نظریه ذهن

نظریه ذهن دقیقاً در حد نظریه است . ما هنوز به توانایی های فنی و علمی لازم برای رسیدن به این سطح هوش مصنوعی دست نیافته ایم.

این مفهوم بر اساس پیش‌فرض روان‌شناختی درک این موضوع است که موجودات زنده دیگر افکار و احساساتی دارند که بر رفتار شخص تأثیر می‌گذارند. از نظر ماشین‌های هوش مصنوعی، این بدان معناست که هوش مصنوعی می‌تواند احساسات انسان‌ها، حیوانات و سایر ماشین‌ها را درک کند و از طریق خود اندیشی و تصمیم‌گیری تصمیم بگیرد و سپس از این اطلاعات برای تصمیم‌گیری خود استفاده کند.

اساساً، ماشین‌ها باید بتوانند مفهوم «ذهن»، نوسانات احساسات در تصمیم‌گیری و مجموعه‌ای از مفاهیم روان‌شناختی دیگر را در زمان واقعی درک و پردازش کنند و یک رابطه دو طرفه بین افراد و هوش مصنوعی ایجاد کنند.

خودآگاهی

زمانی که تئوری ذهن در هوش مصنوعی ایجاد شود، در آینده نزدیک، گام نهایی برای خودآگاهی هوش مصنوعی خواهد بود. این نوع هوش مصنوعی دارای آگاهی در سطح انسان است و وجود خود در جهان و همچنین حضور و وضعیت عاطفی دیگران را درک می کند. این می تواند درک کند که دیگران ممکن است به چه چیزهایی نیاز داشته باشند نه فقط بر اساس آنچه با آنها ارتباط برقرار می کنند، بلکه بر اساس نحوه ارتباط آنها.

خودآگاهی در هوش مصنوعی هم به محققان انسانی متکی است که مقدمات آگاهی را درک کنند و سپس یاد بگیرند که چگونه آن را تکرار کنند تا بتوان آن را در ماشین ها ساخت.

هوش مصنوعی چگونه استفاده می شود؟

جرمی آچین، مدیر عامل دیتا ربات(DataRobot) در حالی که در سال 2017 در نمایشگاه هوش مصنوعی ژاپن سخنرانی می کرد، سخنرانی خود را با ارائه تعریف زیر از نحوه استفاده از هوش مصنوعی امروزی آغاز کرد:

“هوش مصنوعی یک سیستم کامپیوتری است که قادر به انجام وظایفی است که معمولاً به هوش انسانی نیاز دارند… بسیاری از این سیستم های هوش مصنوعی با یادگیری ماشینی قدرت می گیرند. برخی از آنها با یادگیری عمیق و برخی از آنها با چیزهای بسیار خسته کننده مانند قوانین.

هوش مصنوعی به طور کلی در دو دسته کلی قرار می گیرد:

  1. هوش مصنوعی محدود(Narrow AI): گاهی اوقات به عنوان “هوش مصنوعی ضعیف” شناخته می شود، این نوع هوش مصنوعی در یک زمینه محدود عمل می کند و شبیه سازی هوش انسانی است. Narrow AI اغلب بر روی انجام یک کار واحد متمرکز است و در حالی که این ماشین‌ها ممکن است هوشمند به نظر برسند، حتی از ابتدایی‌ترین هوش انسانی تحت محدودیت‌ها و محدودیت‌های بسیار بیشتری کار می‌کنند
  2. هوش عمومی مصنوعی (AGI): AGI که ​​گاهی به آن “هوش مصنوعی قوی” نیز گفته می شود، نوعی هوش مصنوعی است که در فیلم ها می بینیم، مانند روبات های Westworld یا Data from Star Trek: The Next Generation. AGI یک ماشین با هوش عمومی است و مانند یک انسان، می تواند از این هوش برای حل هر مشکلی استفاده کند.

هوش مصنوعی محدود

هوش مصنوعی محدود در اطراف ما وجود دارد و به راحتی موفق ترین تحقق هوش مصنوعی تا به امروز است. با توجه به “آماده سازی برای آینده هوش مصنوعی”، با تمرکز بر انجام وظایف خاص، هوش مصنوعی محدود پیشرفت های متعددی را در دهه گذشته تجربه کرده که بر اساس گزارش سال 2016 که توسط دولت اوباما منتشر شده “مزایای اجتماعی قابل توجهی داشته و به سرزندگی اقتصادی آمریکا کمک کرده است.”

چند نمونه از هوش مصنوعی محدود عبارتند از:

  • جستجوی گوگل
  • نرم افزار تشخیص تصویر
  • سیری، الکسا و دستیاران شخصی دیگر
  • ماشین های خودران
  • واتسون IBM
  • یادگیری ماشینی و یادگیری عمیق

هوش مصنوعی محدود در یک زمینه محدود عمل می کند و شبیه سازی هوش انسانی است. مانند سیری در اپل شهر دانش ایوان کسری

یادگیری ماشینی و یادگیری عمیق

بخش عمده ای از هوش مصنوعی محدود توسط پیشرفت هایی در یادگیری ماشینی و یادگیری عمیق ایجاد می شود. درک تفاوت بین هوش مصنوعی، یادگیری ماشین و یادگیری عمیق می تواند گیج کننده باشد. فرانک چن، سرمایه‌گذار خطر پذیر، نمای کلی خوبی از نحوه تمایز بین آنها ارائه می‌دهد و خاطرنشان می‌کند:

هوش مصنوعی مجموعه ای از الگوریتم ها و هوش برای تقلید از هوش انسان است. یادگیری ماشینی یکی از آنهاست و یادگیری عمیق یکی از آن تکنیک های یادگیری ماشینی است.

به زبان ساده، یادگیری ماشینی داده‌های رایانه را تغذیه می‌کند و از تکنیک‌های آماری استفاده می‌کند تا به آن کمک کند تا «بیاموزد» چگونه در یک کار به تدریج بهتر شود، بدون اینکه به طور خاص برای آن کار برنامه‌ریزی شده باشد، و نیازی به میلیون‌ها خط کد نوشته شده را از بین می‌برد. یادگیری ماشینی شامل یادگیری نظارت شده (با استفاده از مجموعه داده های برچسب دار) و یادگیری بدون نظارت (با استفاده از مجموعه داده های بدون برچسب) است.

یادگیری عمیق نوعی یادگیری ماشینی است که ورودی ها را از طریق معماری شبکه عصبی الهام گرفته از بیولوژیکی اجرا می کند. شبکه‌های عصبی حاوی تعدادی لایه پنهان هستند که داده‌ها از طریق آنها پردازش می‌شوند و به ماشین اجازه می‌دهند تا در یادگیری خود “عمیق” پیش برود، اتصالات و وزن ورودی را برای بهترین نتایج ایجاد کند.

هوش مصنوعی عمومی

ایجاد ماشینی با هوش در سطح انسانی که می تواند برای هر کاری به کار رود جام مقدس برای بسیاری از محققان هوش مصنوعی است، اما تلاش برای AGI با مشکل همراه بوده است.

جستجو برای “الگوریتم جهانی برای یادگیری و عمل در هر محیطی” (راسل و نورویگ 27) چیز جدیدی نیست، اما زمان دشواری ایجاد ماشینی با مجموعه ای کامل از توانایی های شناختی را کاهش نداده است.

AGI مدت‌هاست که الهام‌بخش داستان‌های علمی تخیلی دیستوپیایی(dystopian) بوده است، که در آن روبات‌های فوق‌هوشمند بر بشریت غلبه می‌کنند، اما کارشناسان معتقدند که این چیزی نیست که به این زودی‌ها نگران آن باشیم.

تاریخچه مختصری از هوش مصنوعی

ربات های هوشمند و موجودات مصنوعی اولین بار در اسطوره های یونان باستان دوران باستان ظاهر شدند. توسعه قیاس و استفاده ارسطو از استدلال قیاسی لحظه ای کلیدی در تلاش بشر برای درک هوش خود بود. در حالی که ریشه ها طولانی و عمیق هستند، تاریخچه هوش مصنوعی همانطور که ما امروز به آن فکر می کنیم کمتر از یک قرن است. در ادامه نگاهی گذرا به برخی از مهم ترین رویدادهای هوش مصنوعی آورده شده است.

دهه 1940

  • (1943) وارن مک کالو و والتر پیتس “حساب منطقی ایده های ماندگار در فعالیت عصبی” را منتشر کردند. این مقاله اولین مدل ریاضی را برای ساخت یک شبکه عصبی پیشنهاد کرد.
  • (1949) دونالد هب در کتاب خود با نام سازمان رفتار: یک نظریه عصب روانشناختی، این نظریه را پیشنهاد می کند که مسیرهای عصبی از تجربیات ایجاد می شوند و ارتباط بین نورون ها هر چه بیشتر مورد استفاده قرار گیرد قوی تر می شود. یادگیری Hebbian همچنان یک مدل مهم در AI است.

دهه 1950

  • (1950) آلن تورینگ “ماشین آلات محاسباتی و هوش” را منتشر می کند و چیزی را پیشنهاد می کند که اکنون به عنوان تست تورینگ شناخته می شود، روشی برای تعیین اینکه آیا یک ماشین هوشمند است.
  • (1950) ماروین مینسکی و دین ادموندز، دانشجویان کارشناسی هاروارد، SNARC، اولین کامپیوتر شبکه عصبی را ساختند.
  • (1950) کلود شانون مقاله “برنامه نویسی یک کامپیوتر برای بازی شطرنج” را منتشر می کند.
  • (1950) آیزاک آسیموف “سه قانون رباتیک” را منتشر می کند.
  • (1952) آرتور ساموئل یک برنامه خودآموز برای بازی چکرز توسعه می دهد.
  • (1954) آزمایش ترجمه ماشینی جورج تاون-IBM به طور خودکار 60 جمله روسی را که با دقت انتخاب شده اند به انگلیسی ترجمه می کند.
  • (1956) عبارت هوش مصنوعی در “پروژه تحقیقاتی تابستانی دارتموث در مورد هوش مصنوعی” ابداع شد. به رهبری جان مک کارتی، کنفرانسی که دامنه و اهداف آن را تعریف کرد، به طور گسترده ای به عنوان تولد هوش مصنوعی آنگونه که امروز می شناسیم در نظر گرفته می شود.
  • (1956) آلن نیوول و هربرت سایمون نظریه پرداز منطق (LT)، اولین برنامه استدلال را نشان دادند.
  • (1958) جان مک کارتی زبان برنامه نویسی هوش مصنوعی Lisp را توسعه داد و مقاله “برنامه هایی با عقل سلیم” را منتشر کرد. در این مقاله، مشاوره فرضی، یک سیستم هوش مصنوعی کامل با توانایی یادگیری از تجربیات به همان اندازه مؤثر، پیشنهاد شد.
  • (1959) آلن نیوول، هربرت سایمون و جی سی شاو برنامه حل مسئله عمومی (GPS) را توسعه دادند، برنامه ای که برای تقلید از حل مسئله انسان طراحی شده است.
  • (1959) هربرت گلرنتر برنامه اثبات قضیه هندسه را توسعه داد.
  • (1959) آرتور ساموئل در IBM اصطلاح یادگیری ماشین را به کار می برد.
  • (1959) جان مک کارتی و ماروین مینسکی پروژه هوش مصنوعی MIT را تأسیس کردند.

دهه 1960

  • (1963) جان مک کارتی آزمایشگاه هوش مصنوعی را در استنفورد راه اندازی کرد.
  • (1966) گزارش کمیته مشورتی پردازش خودکار زبان (ALPAC) توسط دولت ایالات متحده، عدم پیشرفت در تحقیقات ترجمه ماشینی، یک ابتکار بزرگ جنگ سرد با وعده ترجمه خودکار و فوری زبان روسی را شرح می دهد. گزارش ALPAC منجر به لغو تمام پروژه های MT با بودجه دولت می شود.
  • (1969) اولین سیستم های خبره موفق در DENDRAL، یک برنامه XX، و MYCIN، طراحی شده برای تشخیص عفونت های خون، در استانفورد ایجاد شدند.

دهه 1970

  • (1972) زبان برنامه نویسی منطقی PROLOG ایجاد شد.
  • (1973) “گزارش لایت هیل” که جزئیات ناامیدی در تحقیقات هوش مصنوعی را نشان می دهد، توسط دولت بریتانیا منتشر شد و منجر به کاهش شدید بودجه برای پروژه های هوش مصنوعی شد.
  • (1974-1980) ناامیدی از پیشرفت توسعه هوش مصنوعی منجر به کاهش عمده DARPA در کمک هزینه تحصیلی می شود. همراه با گزارش قبلی ALPAC و “گزارش لایت هیل” سال قبل، بودجه هوش مصنوعی خشک می شود و تحقیقات متوقف می شود. این دوره به عنوان “اولین زمستان هوش مصنوعی” شناخته می شود.

دهه 1980

  • (1980) Digital Equipment Corporations R1 (همچنین به عنوان XCON شناخته می شود)، اولین سیستم متخصص تجاری موفق را توسعه داد. R1 که برای پیکربندی سفارش‌ها برای سیستم‌های کامپیوتری جدید طراحی شده است، رونق سرمایه‌گذاری در سیستم‌های خبره را آغاز می‌کند که تا بیشتر دهه دوام خواهد داشت و عملاً به اولین “زمستان هوش مصنوعی” پایان می‌دهد.
  • (1982) وزارت تجارت و صنعت بین المللی ژاپن پروژه جاه طلبانه سیستم های کامپیوتری نسل پنجم را راه اندازی کرد. هدف FGCS توسعه عملکرد ابررایانه مانند و پلتفرمی برای توسعه هوش مصنوعی است.
  • (1983) در پاسخ به FGCS ژاپن، دولت ایالات متحده ابتکار محاسبات استراتژیک را برای ارائه تحقیقات مالی دارپا در زمینه محاسبات پیشرفته و هوش مصنوعی راه اندازی کرد.
  • (1985) شرکت‌ها سالانه بیش از یک میلیارد دلار برای سیستم‌های خبره هزینه می‌کنند و یک صنعت کامل به نام بازار ماشین‌های لیسپ برای حمایت از آنها به وجود می‌آید. شرکت هایی مانند Symbolics و Lisp Machines Inc. کامپیوترهای تخصصی را برای اجرا بر روی زبان برنامه نویسی هوش مصنوعی Lisp می سازند.
  • (1987-1993) با بهبود فناوری محاسباتی، جایگزین های ارزان تری پدیدار شد و بازار ماشین های لیسپ در سال 1987 سقوط کرد و “زمستان دوم هوش مصنوعی” را آغاز کرد. در این دوره، سیستم های خبره برای نگهداری بسیار گران بودند

منبع متن: بولتن

مطالب مرتبط
کسری نخعی
کسری نخعی
کارشناس ارشد مهندسی مکانیک از دانشگاه خواجه نصیر الدین طوسی | برنامه نویس پایتون و علاقه‌مند به پژوهش‌های علمی
اشتراک گذاری

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد.

fa Persian
X