هوش مصنوعی

تاریخچه مختصر از هوش مصنوعی

حدودا در سال ۱۹۹۵، رایانه‌های شخصی، تکامل یافته ‌و قدرتمند شده بودند و محاسبات تجاری را به دست‌گرفته بودند و بیشتر مردم در کشورهای توسعه‌یافته، رایانه شخصی خود را در محل کار و خانه داشتند. سپس، اصطلاحات اینترنت، وب، نت اسکیپ، مرورگر و وب سرور ناگهان چشم‌انداز محاسباتی را فرا گرفت. تغییرات شدیدی‎‌ که در آن زمان رخ داد، به طور کامل نشان داد که چگونه داده‌ها و اطلاعات در مقیاسی بزرگ‌تر از هر چیزی‎‌ که در تاریخ بشریت پیش از آن بوده ‌است، پررنگ شدند. اینترنت، منجر به ‌ایجاد گوشی‌های هوشمند شد که به نوبه خود به طور تصاعدی، ‌مقیاس و دسترسی به اینترنت را افزایش داد. همچنین معماری‌های ‌محاسباتی، به‌ویژه در مورد نمایش داده‌ها، ذخیره‌سازی و توزیع آن‌ها، انقلاب عظیمی را پشت سر گذاشتند.

به‌تدریج با گذشت زمان، پیشرفت در اینترنت و فناوری‌های تلفن‌همراه ‌و رایانه منجر به رشد سریع در ایجاد و تجمیع داده‌ها شد. سازماندهی و معنا بخشیدن به ‌این مقیاس از داده‌ها نه ‌تنها فراتر از توانایی‌های انسان بود، بلکه حتی فراتر ازتوانایی‌های الگوریتم‌های سنتی نیز بود.

الگوریتم‌های سنتی، نمی‌توانستند برای این حجم از داده جستجو ‌انجام دهند و ‌‌‌آن‌ها را معنا کنند. بنابراین‌، تحقیق در زمینه‌ی یادگیری‌ ماشین و هوش‌ مصنوعی سرعت گرفت و با دسترسی آسان به حجم زیادی از ‌‌‌داده‌ها ‌و محاسبات، پیشرفت‌های چشمگیری داشت. اکنون در عصر “هوش‌ مصنوعی” قرار داریم. همانطور که در مسئله رایا‌‌‌نه‎های شخصی و اینترنت انقلاب اتفاق افتاد، اکنون این درک وجود دارد که ‌هوش‌ مصنوعی نه‌تنها محاسبات بلکه جامعه ‌و بشریت را در جهان متحول خواهد کرد.

معرفی

آلن تورینگ یک چهره برجسته در علوم کامپیوتر و هوش مصنوعی است. اغلب او را “پدر هوش مصنوعی” می نامند.او در سال ۱۹۳۶ مقاله ای به نام «درباره اعداد قابل محاسبه» نوشت. در آن، او مفاهیم اصلی یک کامپیوتر را بیان کرد که به ماشین تورینگ معروف شد. به خاطر داشته باشید که کامپیوترهای واقعی تا بیش از یک دهه بعد توسعه نخواهند یافت.

با این حال این مقاله او به نام «ماشین‌های محاسباتی و هوش» بود که برای هوش مصنوعی تاریخی شد. او بر مفهوم ماشینی متمرکز شد که هوشمند بود. اما برای انجام این کار باید راهی برای اندازه گیری آن وجود داشت.

وی در پاسخ به این سوال که هوش برای یک ماشین به چه معنا می تواند باشد، به “تست تورینگ” معروف رسید. این در اصل یک بازی با سه بازیکن است: دو بازیکن که انسان هستند و یکی کامپیوتر. ارزیاب، یک انسان، از دو نفر دیگر (یک انسان، یک کامپیوتر) سؤالات باز می پرسد تا مشخص کند کدام یک انسان است. اگر ارزیاب نتواند تعیین کند، فرض بر این است که رایانه هوشمند است. نبوغ این مفهوم این است که نیازی به دیدن اینکه آیا ماشین واقعاً چیزی را می داند، خودآگاه است یا حتی درست است وجود ندارد. در عوض، تست تورینگ نشان می دهد که یک ماشین می تواند حجم زیادی از اطلاعات را پردازش کند، گفتار را تفسیر کند و با انسان ارتباط برقرار کند.


تورینگ بر این باور بود که در واقع تا پایان قرن حاضر یک ماشین آزمایش او را با موفقیت پشت سر نمی‌گذارد. اما آزمون تورینگ در طول سال‌ها ادامه پیدا کرد و مسابقاتی از قبیل مسابقه تست تورینگ برای تشویق مردم به ایجاد سیستم های نرم افزاری هوشمند وجود دارد.(Taulli and Oni 2019)

آلن تورینگ از چهره های معروف هوش مصنوعی

در سال ۱۹۸۰، جان سرل، فیلسوف، مقاله معروفی با عنوان «ذهن، مغز و برنامه‌ها» نوشت و در آنجا آزمایش فکری خود را به نام «برهان اتاق چینی» برای برجسته کردن کاستی‌ها تنظیم کرد.

این کار به این صورت بود: فرض کنید جان در اتاقی است و زبان چینی را نمی‌فهمد. با این حال، او دستورالعمل‌هایی دارد که قوانین آسان برای ترجمه آن را ارائه می‌کند. بیرون اتاق جان است که زبان را می‌فهمد و شخصیت‌ها را به جان می‌سپارد. پس از مدتی، او ترجمه دقیقی از جان دریافت خواهد کرد. به این ترتیب، منطقی است که فرض کنیم جان معتقد است که جان می تواند چینی صحبت کند. نکته بحث این است: اگر مردی که در اتاق است، زبان چینی را بر اساس اجرای برنامه مناسب برای درک زبان چینی نمی‌فهمد، هیچ کامپیوتر دیجیتال دیگری نیز صرفاً بر این اساس نمی‌داند، زیرا هیچ رایانه ای، قابلیت های آن مرد( انسان) را ندارد. این یک استدلال بسیار خوب بود که از آن زمان موضوع داغ بحث در محافل هوش مصنوعی بوده است.

سرل همچنین معتقد بود دو شکل از هوش مصنوعی وجود دارد:

هوش مصنوعی قوی: این مفهوم، زمانی است که یک ماشین واقعاً آنچه را که اتفاق می‌افتد می‌فهمد. حتی ممکن است دارای احساسات و خلاقیت باشد. در بیشتر موارد، این مسئله، همان چیزی است که در فیلم های علمی تخیلی می بینیم. این نوع هوش مصنوعی به عنوان هوش عمومی مصنوعی (AGI) نیز شناخته می شود. تعداد انگشت شماری از شرکت ها وجود دارند که روی این دسته تمرکز می کنند، مانند DeepMind گوگل.

هوش مصنوعی ضعیف: در این مفهوم، یک ماشین با الگو مطابقت دارد و معمولاً روی کارهای باریک متمرکز است. نمونه هایی از این موارد عبارتند از سیری اپل و الکسای آمازون.

واقعیت این است که هوش مصنوعی در مراحل اولیه هوش مصنوعی ضعیف است. رسیدن به نقطه هوش مصنوعی قوی می تواند به راحتی چندین دهه طول بکشد. برخی از محققان فکر می کنند که ممکن است هرگز اتفاق نیفتد.(Taulli and Oni 2019)

تاریخچه

از سال ۱۹۵۶ تا ۱۹۷۴، حوزه هوش مصنوعی یکی از داغ ترین نقاط در دنیای فناوری بود. یک کاتالیزور اصلی، توسعه سریع فناوری‌های رایانه‌ای بود. آنها از سیستم‌های عظیم مبتنی بر لوله‌های خلاء به سیستم‌های کوچک‌تری تبدیل شدند که بر روی مدارهای مجتمع کار می‌کردند که بسیار سریع‌تر بودند و ظرفیت ذخیره‌سازی بیشتری داشتند.

دولت فدرال نیز در حال سرمایه گذاری هنگفتی بر روی فناوری های جدید بود. بخشی از این به خاطر اهداف بلندپروازانه برنامه فضایی آپولو و خواسته های سنگین جنگ سرد بود.

در مورد هوش مصنوعی، منبع اصلی بودجه آژانس پروژه های تحقیقاتی پیشرفته (ARPA) بود که در اواخر دهه ۱۹۵۰ پس از شوک اسپوتنیک روسیه راه اندازی شد. هدف این بود که الهام بخش نوآوری دستیابی به موفقیت باشد. در بیشتر موارد، اکثر بودجه از دانشگاه استنفورد، MIT، آزمایشگاه لینکلن و دانشگاه کارنگی ملون بود.

به غیر از IBM، بخش خصوصی مشارکت کمی در توسعه هوش مصنوعی داشت. در اواسط دهه ۱۹۵۰، IBM عقب نشینی کرد و بر تجاری سازی رایانه های خود تمرکز کرد. این ترس از سوی مشتریان وجود داشت که این فناوری منجر به از دست دادن شغل قابل توجهی شود. بنابراین IBM نمی خواست سرزنش شود.

اما بسیاری از برنامه های دیگر وجود داشتند که سعی در دستیابی به سطحی از هوش مصنوعی قوی داشتند.

برخی از باهوش ترین دانشگاهیان جهان در تلاش بودند تا ماشین هایی بسازند که بتوانند واقعاً فکر کنند. اما خوش‌بینی اغلب به افراط می‌رفت. در سال ۱۹۶۵، سایمون گفت که ظرف ۲۰ سال، یک ماشین می تواند هر کاری را که یک انسان می تواند انجام دهد. سپس در سال ۱۹۷۰، در مصاحبه ای با مجله Life، او گفت که این اتفاق تنها در ۳ تا ۸ سال آینده رخ می دهد. دانشگاهیان بیشتری بودند که بدبین می شدند. شاید هوبرت دریفوس، فیلسوف، پر سر و صداترین آنها بود. او در کتاب‌هایی مانند آنچه رایانه‌ها هنوز نمی‌توانند انجام دهند: نقد عقل مصنوعی، ایده‌های خود را بیان کرد که رایانه‌ها شبیه مغز انسان نیستند و هوش مصنوعی به طرز تاسف‌باری از انتظارات عالی دور می‌شود.

در اوایل دهه ۱۹۷۰، شور و شوق برای هوش مصنوعی شروع به کاهش کرد. این به عنوان “زمستان هوش مصنوعی” شناخته می شود که امکان داشت تا سال ۱۹۸۰ یا بیشتر ادامه داشته باشد.

با وجود اینکه گام‌های زیادی با هوش مصنوعی برداشته شد، اما هنوز هم بیشتر دانشگاهی بودند و در محیط‌های کنترل‌شده درگیر بودند. در آن زمان، سیستم های کامپیوتری هنوز محدود بودند. اما حتی در طول زمستان هوش مصنوعی، نوآوری های عمده همچنان وجود داشت. در دهه‌های ۱۹۸۰ و ۱۹۹۰، سیستم‌های خبره نیز ظهور کردند. یک محرک کلیدی رشد انفجاری رایانه‌های شخصی و رایانه‌های کوچک بود.(Taulli and Oni 2019) به‌تدریج با گذشت زمان و پیشرفت در اینترنت و فناوری‌های رایانه منجر به افزایش تحقیقات در زمینه هوش مصنوعی برای سرعت بخیدن به محاسبات بزرگ و فعالیت های مختلف گردید. به دنبال ظهور علم یادگیری‌ ماشین و هوش‌ مصنوعی، پژوهش‌ها و مطالعات در رابطه با آن‌ها سرعت ‌گرفت.

تعریف
هوش مصنوعی( Artificial Intelligence)


هوش مصنوعی شبیه سازی ذهن انسان با مطالعه رفتار هوش انسان با استفاده از برنامه های کامپیوتری است که قادر به درک رفتار انسان هستند. این واقعیت نشان می دهد که کامپیوتر و هوش انسانی تأثیر گسترده و آشکاری بر انسان خواهند داشت. (Aggarwal et al. 2022; Fjelland 2020)هوش مصنوعی به عنوان مهارت ماشین‌ها و برنامه‌ها برای شبیه‌سازی تجربیات ذهنی انسان و الگوهای تمرین آن‌ها، مانند توانایی یادگیری، قضاوت و واکنش به موقعیت‌ها توصیف می‌شود. (Aggarwal et al. 2022; Cioffi et al. 2020; Huang and Rust 2018)

شرکت‌هایی مانند فیس‌بوک، گوگل و توییتر در حال سرمایه‌گذاری مبالغ هنگفتی هستند و تلاش‌ها را برای توسعه مهارت‌های یادگیری عمیق و ساخت مدلی از هوش مصنوعی که می‌تواند پیچیدگی‌های مغز انسان را مدیریت کند، تشدید می‌کنند.(Aggarwal et al. 2022; Martin-Isla et al. 2020)

هوش مصنوعی هسته ای از علوم کامپیوتر است. (Miailhe and Hodes 2017; Aggarwal et al. 2022; Hamet and Tremblay 2017)در واقع، یک پیشرفت علمی است که از طریق آن یک ماشین برای انجام اعمالی که در حیطه هوش انسان قرار می گیرد، مانند آموزش، منطق، اصلاح خود. هدف اصلی هوش مصنوعی این است که کامپیوترها کاری را انجام دهند که انسان انجام می دهد.(Signorelli 2018; Aggarwal et al. 2022)

آلن تورینگ هوش مصنوعی را اینگونه تعریف می کند: «اگر ماشینی پشت پرده باشد و انسانی با آن تعامل داشته باشد (به هر وسیله ای، مثلاً صدا یا از طریق تایپ و غیره) و اگر انسان احساس کند با دیگری در حال تعامل است. بنابراین، ماشین به طور مصنوعی هوشمند است.” این، یک روش کاملا منحصر به فرد برای تعریف هوش مصنوعی می‌باشد. هدف آن، مستقیماً مفهوم هوش نیست، بلکه بیشتر بر رفتاری شبیه انسان متمرکز است. در واقع، این هدف از نظر دامنه، گسترده تر از هوش صرف است. از این منظر، هوش مصنوعی به معنای ساخت یک ماشین فوق‌العاده هوشمند نیست که بتواند هر مشکلی را در کوتاه‌مدت حل کند، بلکه به معنای ساخت ماشینی است که قادر به رفتاری شبیه انسان باشد. با این حال، ساختن ماشین هایی که شبیه انسان هستند چندان جالب به نظر نمی رسد. طبق دیدگاه مدرن، هر زمان که از هوش مصنوعی صحبت می کنیم، منظور ماشین هایی است که قادر به انجام یک یا چند مورد از این وظایف هستند: درک زبان انسان، انجام وظایف مکانیکی شامل مانورهای پیچیده، حل مسائل پیچیده مبتنی بر کامپیوتر که احتمالاً شامل داده های بزرگ در کوتاه مدت است.(Joshi 2020)

یادگیری ماشین ( Machine Learning)

اصطلاح “یادگیری ماشین” یا به طور خلاصه ML، در سال ۱۹۵۹ توسط آرتور ساموئل در زمینه حل بازی چکرز توسط ماشین ابداع شد. این اصطلاح به یک برنامه کامپیوتری اطلاق می شود که می تواند رفتاری را بیاموزد که به صراحت توسط نویسنده برنامه، برنامه ریزی نشده باشد و رفتاری را نشان دهد که ممکن است نویسنده کاملاً از آن بی خبر باشد.(Joshi 2020)

آرتور ال ساموئل، در سال ۱۹۴۹ در آزمایشگاه Poughkeepsie به IBM پیوست. تلاش های او به افزایش قدرت محاسباتی ماشین های شرکت کمک کرد. اما او برنامه های کاربردی را نیز برنامه ریزی کرد. بازی چکرز کامپیوتری او، اولین نمونه از یک سیستم یادگیری ماشینی بود. او نشان داد که یادگیری ماشین چگونه کار می‌کند – به عبارت دیگر، یک کامپیوتر می‌تواند با پردازش داده‌ها بدون نیاز به برنامه‌ریزی صریح یاد بگیرد و بهبود یابد. این امر با استفاده از مفاهیم پیشرفته آمار، به ویژه با تحلیل احتمال امکان پذیر شد. بنابراین، یک کامپیوتر می تواند برای پیش بینی دقیق آموزش داده شود.(Taulli and Oni 2019)

با پیشرفت های تکنولوژیکی در سال های اخیر، اصطلاحات جدیدی شروع به ظهور کرده اند. داده های بزرگ صنعت و هوش مصنوعی محبوب ترین ها هستند. اگرچه یادگیری ماشین به اندازه این اصطلاحات محبوب نیست، اما مفهومی است که در حال افزایش است. با این حال، سوالات بسیاری پیرامون یادگیری ماشینی وجود دارد. یادگیری ماشینی امروزه در بخش ها و برنامه های مختلف کاربرد دارد و استفاده از آن به تدریج در حال افزایش است. یادگیری ماشینی زیر حوزه هوش مصنوعی است ..سیستم‌های فناوری اطلاعات به‌طور خودکار الگوها و روابط را از داده‌ها یاد می‌گیرند و بدون برنامه‌ریزی صریح به دست می‌آورند. علاوه بر این، یادگیری ماشینی می تواند به طور خودکار دانش تولید کند، الگوریتم ها را آموزش دهد، روابط را شناسایی کند و الگوهای ناشناخته را تشخیص دهد. این الگوها و روابط شناسایی شده را می توان برای یک مجموعه داده جدید و ناشناخته به منظور پیش بینی و بهینه سازی فرآیندها استفاده کرد.(Aggarwal et al. 2022)

 الگوریتم های یادگیری ماشینی را می توان به سه بخش اصلی طبقه بندی کرد:

  • الگوریتم های یادگیری تحت نظارت (Supervised learning algorithms)
  • الگوریتم های یادگیری بدون نظارت (Unsupervised learning algorithms)
  • الگوریتم های یادگیری تقویتی (Reinforcement learning algorithms)
الگوریتم های یادگیری تحت نظارت

برای درک آسان تر، سیستم ML را میتوان به عنوان یک جعبه سیاه در نظر گرفت که با دادن مقداری ورودی مقداری خروجی تولید می کند. اگر از قبل یک داده تاریخی در دست باشد که شامل مجموعه ای از خروجی ها برای مجموعه ای از ورودی ها باشد، آنگاه یادگیری مبتنی بر این داده ها تحت عنوان یادگیری نظارت شده نامیده می شود. یک مثال ساده از یادگیری تحت نظارت، طبقه بندی است. فرض کنید ما ۴ ویژگی مختلف (طول کاسبرگ، عرض کاسبرگ، طول گلبرگ و عرض گلبرگ) از ۳ نوع گل مختلفبا نام های مشخص و را اندازه گیری کرده ایم. برای مثال ۲۵ نمونه مختلف از هر نوع گل اندازه گیری شده است. این داده ها به عنوان داده های آموزشی عمل می کنند که در آن ورودی ها (۴ ویژگی اندازه گیری شده) و خروجی های مربوطه (نوع گل) برای آموزش مدل، موجود است. سپس، یک مدل ML مناسب را می توان به صورت نظارت شده آموزش داد. هنگامی که مدل آموزش داده شد، می‌توانیم هر گل (بین سه نوع شناخته شده) را بر اساس اندازه‌گیری‌های کاسبرگ و گلبرگ طبقه‌بندی کنیم.

الگوریتم های یادگیری بدون نظارت

در پارادایم یادگیری بدون نظارت، داده های برچسب گذاری شده در دسترس نیستند. یک مثال ساده از یادگیری بدون نظارت خوشه‌بندی است. همان مثال را در نظر بگیرید، جایی که ما اندازه گیری های کاسبرگ را و ابعاد گلبرگ سه نوع گل را داریم. با این حال، نام دقیق گل ها را برای هر مجموعه اندازه گیری مشخص نیست و به ما گفته می شود که این اندازه گیری ها متعلق به سه نوع مختلف گل می باشد. در چنین مواردی می توان از تکنیک های یادگیری بدون نظارت، برای شناسایی خودکار سه دسته از اندازه گیری ها استفاده کرد.

الگوریتم های یادگیری تقویتی

یادگیری تقویتی نوع خاصی از روش های یادگیری است که باید جدا از روش های تحت نظارت و بدون نظارت مورد بررسی قرار گیرد. یادگیری تقویتی شامل بازخورد از محیط است، بنابراین دقیقاً بدون نظارت نیست، با این حال، مجموعه‌ای از نمونه‌های برچسب‌گذاری شده برای آموزش را نیز ندارد و از این رو نمی توان آن را تحت نظارت قرار داد. در روش‌های یادگیری تقویتی، سیستم در جستجوی ایجاد رفتار مطلوب با محیط به طور مداوم در تعامل است و از محیط بازخورد می‌گیرد.(Joshi 2020)

الگوریتم های معمول یادگیری ماشین، الگوریتم های تحت نظارت و بدون نظارت می باشند. شکل، یک چارچوب کلی برای الگوریتم های یادگیری ماشین نشان می دهد.(Taulli and Oni 2019)

چارچوب کلی برای الگوریتم های یادگیری ماشین

اصطلاحات هوش مصنوعی و رباتیک تا حدی فراگیر شده‌اند که مردم از اینکه، ماشین‌ها کنترل زندگی آن‌ها را در دست بگیرند و نقش انسان در بسیاری از زمینه‌ها کاهش یابد، نگران اند. [۱]. انسان ها با استفاده از استعدادها، مهارت ها و توانایی های خود و کاری که سایر موجودات نمی توانند انجام دهند، از بقیه متمایز می شوند. افراد از نظر خلاقیت و برتری نیز از یکدیگر متمایز هستند و افرادی که برجسته هستند دارای هوش می باشند که هوش انسان توانایی و مهارت حل مسائل است [۲].

علاوه بر پیشرفت در رویکردهای مفهومی، نظریه‌ها و مدل‌های جدید، هوش مصنوعی محرک‌های مهم دیگری نیز داشت. (Taulli and Oni 2019)

  • رشد انفجاری در مجموعه داده ها: اینترنت یک عامل اصلی برای هوش مصنوعی بوده است، زیرا امکان ایجاد مجموعه داده های عظیم را فراهم کرده است.
  • زیرساخت: شاید مهم ترین شرکت برای هوش مصنوعی در طول ۱۵ سال گذشته یا بیشتر گوگل باشد. برای همگام شدن با نمایه سازی وب – که با سرعتی سرسام آور در حال رشد بود – این شرکت مجبور شد رویکردهای خلاقانه ای برای ساخت سیستم های مقیاس پذیر ارائه دهد. نتیجه نوآوری در خوشه های سرور کالا، مجازی سازی و نرم افزار منبع باز بوده است. گوگل همچنین با راه اندازی پروژه “Google Brain” در سال ۲۰۱۱ یکی از اولین پذیرندگان یادگیری عمیق بود.
  • پردازنده‌های گرافیکی (واحدهای پردازش گرافیکی): این فناوری تراشه که توسط NVIDIA پیشگام بود، در اصل برای گرافیک‌های پرسرعت در بازی‌ها بود. اما معماری پردازنده‌های گرافیکی در نهایت برای هوش مصنوعی نیز ایده‌آل خواهد بود. (Taulli and Oni 2019)
ساختار هوش مصنوعی

شکل، نحوه ارتباط عناصر اصلی هوش مصنوعی را با یکدیگر نشان می‌دهد. در بالا، هوش مصنوعی قرار دارد که طیف گسترده ای از نظریه ها و فناوری ها را پوشش می دهد. سپس می توانید این را به دو دسته اصلی تقسیم کنید: یادگیری ماشینی و یادگیری عمیق.(Taulli and Oni 2019)

نگاهی سطح بالا به اجزای اصلی دنیای هوش مصنوعی(Taulli and Oni 2019)
مبانی داده ها

درک درستی از اصطلاحات تخصصی داده ها خوب است. اول از همه، بیت، کوچکترین شکل داده در یک کامپیوتر است. آن را به عنوان اتم در نظر بگیرید. یک بیت می تواند ۰ یا ۱ باشد که باینری است. همچنین معمولاً برای اندازه گیری میزان داده ای که در حال انتقال است (مثلاً در یک شبکه یا اینترنت) استفاده می شود. از طرف دیگر، یک بایت بیشتر برای ذخیره سازی است. البته تعداد بایت ها می تواند خیلی سریع زیاد شود.

داده ها همچنین می توانند از منابع مختلفی به دست آیند. در اینجا فقط یک نمونه است:

  • وب/اجتماعی (فیس بوک، توییتر، اینستاگرام، یوتیوب)
  • داده‌های بیومتریک (ردیاب‌های تناسب اندام، آزمایش‌های ژنتیک)
  • سیستم های فروش (از فروشگاه های آجر و ملات
  • سایت های تجارت الکترونیک
  • اینترنت اشیا یا اینترنت اشیا (برچسب‌های شناسه و دستگاه‌های هوشمند)
  • سیستم های ابری (برنامه های تجاری مانند  Salesforce.com
  • پایگاه داده ها و صفحات گسترده شرکتی(Taulli and Oni 2019)
انواع داده ها

داده های ساختار یافته وجود دارد که معمولاً در یک پایگاه داده یا صفحه گسترده رابطه ای ذخیره می شوند. برخی از نمونه ها شامل موارد زیر است:

  • اطلاعات مالی
  • شماره های تامین اجتماعی
  • آدرس ها
  • اطلاعات محصول
  • داده های نقطه فروش
  • شماره تلفن ها

در عوض، اکثریت داده‌های بدون ساختار میباشند، که اطلاعاتی هستند که قالب‌بندی از پیش تعریف‌ شده ندارند. شما باید خودتان این کار را انجام دهید، که ممکن است خسته کننده و وقت گیر باشد. اما ابزارهایی وجود دارند که می توانند به این فرآیند کمک کنند. سیستم‌های هوش مصنوعی از نظر مدیریت و ساختار داده‌ها نیز مؤثر هستند، زیرا الگوریتم‌ها می‌توانند الگوها را تشخیص دهند.

در اینجا نمونه هایی از داده های بدون ساختار آورده شده است:

  • تصاویر
  • فیلم های
  • فایل های صوتی
  • فایل های متنی
  • اطلاعات شبکه های اجتماعی مانند توییت ها و پست ها
  • تصاویر ماهواره ای

برخی داده‌ها وجود دارند که ترکیبی از منابع ساختاریافته و غیرساخت‌یافته هستند که داده‌های نیمه ساختاریافته نامیده می‌شوند. اطلاعات دارای برخی برچسب های داخلی است که به دسته بندی کمک می کند.

نمونه‌هایی از داده‌های نیمه ساختاریافته شامل XML (زبان نشانه‌گذاری توسعه‌یافته)، که بر اساس قوانین مختلف برای شناسایی عناصر یک سند است، می باشد. اما داده های نیمه ساختاریافته تنها حدود ۵ تا ۱۰ درصد از کل داده ها را نشان می دهد.

در نهایت، داده‌های سری زمانی وجود دارد که می‌تواند هم برای داده‌های ساخت‌یافته، بدون ساختار و هم برای داده‌های نیمه ساختاریافته باشد. این نوع اطلاعات برای تعامل است، مثلاً وقتی کاربر وارد وب‌سایتی میشود، از یک برنامه استفاده می‌کند یا حتی وارد فروشگاه می‌شود، این کار، جمع‌آوری اطلاعات است. درک این نوع داده ها دشوار است. ما احتمالاً هوش مصنوعی برای چنین مسائلی حیاتی است. اگرچه، در بیشتر موارد، تجزیه و تحلیل داده های سری زمانی هنوز در مراحل اولیه است.(Taulli and Oni 2019)

داده های بزرگ (Big Data)

پردازش کلان داده از مفاهیم اصلی در هوش مصنوعی و یادگیری ماشین می باشد که زمان ظهور محاسبات ابری به یک فصل بسیار جالب و هیجان انگیز در زمینه هوش مصنوعی و ML تبدیل شده است. اگرچه اندازه حافظه خاصی وجود ندارد که داده ها بزرگ نامیده شود، تعریف عمومی پذیرفته شده به شرح زیر است: زمانی که اندازه داده به اندازه کافی بزرگ باشد که نتوان آن ها را روی یک ماشین پردازش کرد، به آن داده های بزرگ می گویند.(Joshi 2020)

مقدار داده مورد نیاز هوش مصنوعی

هر چه داده بیشتر باشد، بهتر است، درست است؟ معمولاً اینطور است. به چیزی به نام پدیده هیوز نگاه کنید. این نشان می دهد که با اضافه کردن ویژگی ها به یک مدل، عملکرد به طور کلی افزایش می یابد. ممکن است به نقطه ای برسد که داده ها شروع به تنزل کنند. به گفته چارلز ایزبل، استاد و دانشیار ارشد دانشکده محاسبات تعاملی در جورجیا تک “با افزایش تعداد ویژگی ها یا ابعاد، مقدار داده هایی که برای تعمیم دقیق نیاز داریم به طور تصاعدی افزایش می یابد.” این مسئله، می تواند داشتن یک مدل خوب را غیرممکن کند زیرا ممکن است داده های کافی وجود نداشته باشد.

به همین دلیل است که وقتی صحبت از برنامه هایی مانند تشخیص بینایی می شود، ابعاد داده می تواند کاملاً مشکل ساز باشد. حتی هنگام تجزیه و تحلیل تصاویر RGB، تعداد ابعاد تقریباً ۷۵۰۰ است. تصور کنید که این فرآیند با استفاده از ویدیوی واقعی و با کیفیت بالا چقدر فشرده خواهد بود.(Taulli and Oni 2019).

استفاده از مطالب با ذکر منبع بلامانع است.
هسته فناور انرژی تبریز

منابع

Aggarwal, Karan, Maad M Mijwil, Abdel-Hameed Al-Mistarehi, Safwan Alomari, Murat Gök, Anas M Zein Alaabdin, and Safaa H Abdulrhman. 2022. ‘Has the Future Started? The Current Growth of Artificial Intelligence, Machine Learning, and Deep Learning’, Iraqi Journal for Computer Science and Mathematics, ۳: ۱۱۵-۲۳.

Cioffi, Raffaele, Marta Travaglioni, Giuseppina Piscitelli, Antonella Petrillo, and Fabio De Felice. 2020. ‘Artificial intelligence and machine learning applications in smart production: Progress, trends, and directions’, Sustainability, ۱۲: ۴۹۲.

Fjelland, Ragnar. 2020. ‘Why general artificial intelligence will not be realized’, Humanities and Social Sciences Communications, ۷: ۱-۹.

Hamet, Pavel, and Johanne Tremblay. 2017. ‘Artificial intelligence in medicine’, Metabolism, ۶۹: S36-S40.

Huang, Ming-Hui, and Roland T Rust. 2018. ‘Artificial intelligence in service’, Journal of Service Research, ۲۱: ۱۵۵-۷۲.

Joshi, Ameet V. 2020. ‘Machine learning and artificial intelligence’.

Martin-Isla, Carlos, Victor M Campello, Cristian Izquierdo, Zahra Raisi-Estabragh, Bettina Baeßler, Steffen E Petersen, and Karim Lekadir. 2020. ‘Image-based cardiac diagnosis with machine learning: a review’, Frontiers in cardiovascular medicine: ۱.

Miailhe, Nicolas, and Cyrus Hodes. 2017. ‘The third age of artificial intelligence’, Field Actions Science Reports. The journal of field actions: ۶-۱۱.

Signorelli, Camilo Miguel. 2018. ‘Can computers become conscious and overcome humans?’, Frontiers in Robotics and AI, ۵: ۱۲۱.

Taulli, Tom, and Michael Oni. 2019. Artificial intelligence basics (Springer).

on هوش مصنوعی

یک دیدگاه بنویسید