تاریخچه مختصر از هوش مصنوعی
حدودا در سال ۱۹۹۵، رایانههای شخصی، تکامل یافته و قدرتمند شده بودند و محاسبات تجاری را به دستگرفته بودند و بیشتر مردم در کشورهای توسعهیافته، رایانه شخصی خود را در محل کار و خانه داشتند. سپس، اصطلاحات اینترنت، وب، نت اسکیپ، مرورگر و وب سرور ناگهان چشمانداز محاسباتی را فرا گرفت. تغییرات شدیدی که در آن زمان رخ داد، به طور کامل نشان داد که چگونه دادهها و اطلاعات در مقیاسی بزرگتر از هر چیزی که در تاریخ بشریت پیش از آن بوده است، پررنگ شدند. اینترنت، منجر به ایجاد گوشیهای هوشمند شد که به نوبه خود به طور تصاعدی، مقیاس و دسترسی به اینترنت را افزایش داد. همچنین معماریهای محاسباتی، بهویژه در مورد نمایش دادهها، ذخیرهسازی و توزیع آنها، انقلاب عظیمی را پشت سر گذاشتند.
بهتدریج با گذشت زمان، پیشرفت در اینترنت و فناوریهای تلفنهمراه و رایانه منجر به رشد سریع در ایجاد و تجمیع دادهها شد. سازماندهی و معنا بخشیدن به این مقیاس از دادهها نه تنها فراتر از تواناییهای انسان بود، بلکه حتی فراتر ازتواناییهای الگوریتمهای سنتی نیز بود.
الگوریتمهای سنتی، نمیتوانستند برای این حجم از داده جستجو انجام دهند و آنها را معنا کنند. بنابراین، تحقیق در زمینهی یادگیری ماشین و هوش مصنوعی سرعت گرفت و با دسترسی آسان به حجم زیادی از دادهها و محاسبات، پیشرفتهای چشمگیری داشت. اکنون در عصر “هوش مصنوعی” قرار داریم. همانطور که در مسئله رایانههای شخصی و اینترنت انقلاب اتفاق افتاد، اکنون این درک وجود دارد که هوش مصنوعی نهتنها محاسبات بلکه جامعه و بشریت را در جهان متحول خواهد کرد.
معرفی
آلن تورینگ یک چهره برجسته در علوم کامپیوتر و هوش مصنوعی است. اغلب او را “پدر هوش مصنوعی” می نامند.او در سال ۱۹۳۶ مقاله ای به نام «درباره اعداد قابل محاسبه» نوشت. در آن، او مفاهیم اصلی یک کامپیوتر را بیان کرد که به ماشین تورینگ معروف شد. به خاطر داشته باشید که کامپیوترهای واقعی تا بیش از یک دهه بعد توسعه نخواهند یافت.
با این حال این مقاله او به نام «ماشینهای محاسباتی و هوش» بود که برای هوش مصنوعی تاریخی شد. او بر مفهوم ماشینی متمرکز شد که هوشمند بود. اما برای انجام این کار باید راهی برای اندازه گیری آن وجود داشت.
وی در پاسخ به این سوال که هوش برای یک ماشین به چه معنا می تواند باشد، به “تست تورینگ” معروف رسید. این در اصل یک بازی با سه بازیکن است: دو بازیکن که انسان هستند و یکی کامپیوتر. ارزیاب، یک انسان، از دو نفر دیگر (یک انسان، یک کامپیوتر) سؤالات باز می پرسد تا مشخص کند کدام یک انسان است. اگر ارزیاب نتواند تعیین کند، فرض بر این است که رایانه هوشمند است. نبوغ این مفهوم این است که نیازی به دیدن اینکه آیا ماشین واقعاً چیزی را می داند، خودآگاه است یا حتی درست است وجود ندارد. در عوض، تست تورینگ نشان می دهد که یک ماشین می تواند حجم زیادی از اطلاعات را پردازش کند، گفتار را تفسیر کند و با انسان ارتباط برقرار کند.
تورینگ بر این باور بود که در واقع تا پایان قرن حاضر یک ماشین آزمایش او را با موفقیت پشت سر نمیگذارد. اما آزمون تورینگ در طول سالها ادامه پیدا کرد و مسابقاتی از قبیل مسابقه تست تورینگ برای تشویق مردم به ایجاد سیستم های نرم افزاری هوشمند وجود دارد.(Taulli and Oni 2019)
در سال ۱۹۸۰، جان سرل، فیلسوف، مقاله معروفی با عنوان «ذهن، مغز و برنامهها» نوشت و در آنجا آزمایش فکری خود را به نام «برهان اتاق چینی» برای برجسته کردن کاستیها تنظیم کرد.
این کار به این صورت بود: فرض کنید جان در اتاقی است و زبان چینی را نمیفهمد. با این حال، او دستورالعملهایی دارد که قوانین آسان برای ترجمه آن را ارائه میکند. بیرون اتاق جان است که زبان را میفهمد و شخصیتها را به جان میسپارد. پس از مدتی، او ترجمه دقیقی از جان دریافت خواهد کرد. به این ترتیب، منطقی است که فرض کنیم جان معتقد است که جان می تواند چینی صحبت کند. نکته بحث این است: اگر مردی که در اتاق است، زبان چینی را بر اساس اجرای برنامه مناسب برای درک زبان چینی نمیفهمد، هیچ کامپیوتر دیجیتال دیگری نیز صرفاً بر این اساس نمیداند، زیرا هیچ رایانه ای، قابلیت های آن مرد( انسان) را ندارد. این یک استدلال بسیار خوب بود که از آن زمان موضوع داغ بحث در محافل هوش مصنوعی بوده است.
سرل همچنین معتقد بود دو شکل از هوش مصنوعی وجود دارد:
هوش مصنوعی قوی: این مفهوم، زمانی است که یک ماشین واقعاً آنچه را که اتفاق میافتد میفهمد. حتی ممکن است دارای احساسات و خلاقیت باشد. در بیشتر موارد، این مسئله، همان چیزی است که در فیلم های علمی تخیلی می بینیم. این نوع هوش مصنوعی به عنوان هوش عمومی مصنوعی (AGI) نیز شناخته می شود. تعداد انگشت شماری از شرکت ها وجود دارند که روی این دسته تمرکز می کنند، مانند DeepMind گوگل.
هوش مصنوعی ضعیف: در این مفهوم، یک ماشین با الگو مطابقت دارد و معمولاً روی کارهای باریک متمرکز است. نمونه هایی از این موارد عبارتند از سیری اپل و الکسای آمازون.
واقعیت این است که هوش مصنوعی در مراحل اولیه هوش مصنوعی ضعیف است. رسیدن به نقطه هوش مصنوعی قوی می تواند به راحتی چندین دهه طول بکشد. برخی از محققان فکر می کنند که ممکن است هرگز اتفاق نیفتد.(Taulli and Oni 2019)
تاریخچه
از سال ۱۹۵۶ تا ۱۹۷۴، حوزه هوش مصنوعی یکی از داغ ترین نقاط در دنیای فناوری بود. یک کاتالیزور اصلی، توسعه سریع فناوریهای رایانهای بود. آنها از سیستمهای عظیم مبتنی بر لولههای خلاء به سیستمهای کوچکتری تبدیل شدند که بر روی مدارهای مجتمع کار میکردند که بسیار سریعتر بودند و ظرفیت ذخیرهسازی بیشتری داشتند.
دولت فدرال نیز در حال سرمایه گذاری هنگفتی بر روی فناوری های جدید بود. بخشی از این به خاطر اهداف بلندپروازانه برنامه فضایی آپولو و خواسته های سنگین جنگ سرد بود.
در مورد هوش مصنوعی، منبع اصلی بودجه آژانس پروژه های تحقیقاتی پیشرفته (ARPA) بود که در اواخر دهه ۱۹۵۰ پس از شوک اسپوتنیک روسیه راه اندازی شد. هدف این بود که الهام بخش نوآوری دستیابی به موفقیت باشد. در بیشتر موارد، اکثر بودجه از دانشگاه استنفورد، MIT، آزمایشگاه لینکلن و دانشگاه کارنگی ملون بود.
به غیر از IBM، بخش خصوصی مشارکت کمی در توسعه هوش مصنوعی داشت. در اواسط دهه ۱۹۵۰، IBM عقب نشینی کرد و بر تجاری سازی رایانه های خود تمرکز کرد. این ترس از سوی مشتریان وجود داشت که این فناوری منجر به از دست دادن شغل قابل توجهی شود. بنابراین IBM نمی خواست سرزنش شود.
اما بسیاری از برنامه های دیگر وجود داشتند که سعی در دستیابی به سطحی از هوش مصنوعی قوی داشتند.
برخی از باهوش ترین دانشگاهیان جهان در تلاش بودند تا ماشین هایی بسازند که بتوانند واقعاً فکر کنند. اما خوشبینی اغلب به افراط میرفت. در سال ۱۹۶۵، سایمون گفت که ظرف ۲۰ سال، یک ماشین می تواند هر کاری را که یک انسان می تواند انجام دهد. سپس در سال ۱۹۷۰، در مصاحبه ای با مجله Life، او گفت که این اتفاق تنها در ۳ تا ۸ سال آینده رخ می دهد. دانشگاهیان بیشتری بودند که بدبین می شدند. شاید هوبرت دریفوس، فیلسوف، پر سر و صداترین آنها بود. او در کتابهایی مانند آنچه رایانهها هنوز نمیتوانند انجام دهند: نقد عقل مصنوعی، ایدههای خود را بیان کرد که رایانهها شبیه مغز انسان نیستند و هوش مصنوعی به طرز تاسفباری از انتظارات عالی دور میشود.
در اوایل دهه ۱۹۷۰، شور و شوق برای هوش مصنوعی شروع به کاهش کرد. این به عنوان “زمستان هوش مصنوعی” شناخته می شود که امکان داشت تا سال ۱۹۸۰ یا بیشتر ادامه داشته باشد.
با وجود اینکه گامهای زیادی با هوش مصنوعی برداشته شد، اما هنوز هم بیشتر دانشگاهی بودند و در محیطهای کنترلشده درگیر بودند. در آن زمان، سیستم های کامپیوتری هنوز محدود بودند. اما حتی در طول زمستان هوش مصنوعی، نوآوری های عمده همچنان وجود داشت. در دهههای ۱۹۸۰ و ۱۹۹۰، سیستمهای خبره نیز ظهور کردند. یک محرک کلیدی رشد انفجاری رایانههای شخصی و رایانههای کوچک بود.(Taulli and Oni 2019) بهتدریج با گذشت زمان و پیشرفت در اینترنت و فناوریهای رایانه منجر به افزایش تحقیقات در زمینه هوش مصنوعی برای سرعت بخیدن به محاسبات بزرگ و فعالیت های مختلف گردید. به دنبال ظهور علم یادگیری ماشین و هوش مصنوعی، پژوهشها و مطالعات در رابطه با آنها سرعت گرفت.
تعریف
هوش مصنوعی( Artificial Intelligence)
هوش مصنوعی شبیه سازی ذهن انسان با مطالعه رفتار هوش انسان با استفاده از برنامه های کامپیوتری است که قادر به درک رفتار انسان هستند. این واقعیت نشان می دهد که کامپیوتر و هوش انسانی تأثیر گسترده و آشکاری بر انسان خواهند داشت. (Aggarwal et al. 2022; Fjelland 2020)هوش مصنوعی به عنوان مهارت ماشینها و برنامهها برای شبیهسازی تجربیات ذهنی انسان و الگوهای تمرین آنها، مانند توانایی یادگیری، قضاوت و واکنش به موقعیتها توصیف میشود. (Aggarwal et al. 2022; Cioffi et al. 2020; Huang and Rust 2018)
شرکتهایی مانند فیسبوک، گوگل و توییتر در حال سرمایهگذاری مبالغ هنگفتی هستند و تلاشها را برای توسعه مهارتهای یادگیری عمیق و ساخت مدلی از هوش مصنوعی که میتواند پیچیدگیهای مغز انسان را مدیریت کند، تشدید میکنند.(Aggarwal et al. 2022; Martin-Isla et al. 2020)
هوش مصنوعی هسته ای از علوم کامپیوتر است. (Miailhe and Hodes 2017; Aggarwal et al. 2022; Hamet and Tremblay 2017)در واقع، یک پیشرفت علمی است که از طریق آن یک ماشین برای انجام اعمالی که در حیطه هوش انسان قرار می گیرد، مانند آموزش، منطق، اصلاح خود. هدف اصلی هوش مصنوعی این است که کامپیوترها کاری را انجام دهند که انسان انجام می دهد.(Signorelli 2018; Aggarwal et al. 2022)
آلن تورینگ هوش مصنوعی را اینگونه تعریف می کند: «اگر ماشینی پشت پرده باشد و انسانی با آن تعامل داشته باشد (به هر وسیله ای، مثلاً صدا یا از طریق تایپ و غیره) و اگر انسان احساس کند با دیگری در حال تعامل است. بنابراین، ماشین به طور مصنوعی هوشمند است.” این، یک روش کاملا منحصر به فرد برای تعریف هوش مصنوعی میباشد. هدف آن، مستقیماً مفهوم هوش نیست، بلکه بیشتر بر رفتاری شبیه انسان متمرکز است. در واقع، این هدف از نظر دامنه، گسترده تر از هوش صرف است. از این منظر، هوش مصنوعی به معنای ساخت یک ماشین فوقالعاده هوشمند نیست که بتواند هر مشکلی را در کوتاهمدت حل کند، بلکه به معنای ساخت ماشینی است که قادر به رفتاری شبیه انسان باشد. با این حال، ساختن ماشین هایی که شبیه انسان هستند چندان جالب به نظر نمی رسد. طبق دیدگاه مدرن، هر زمان که از هوش مصنوعی صحبت می کنیم، منظور ماشین هایی است که قادر به انجام یک یا چند مورد از این وظایف هستند: درک زبان انسان، انجام وظایف مکانیکی شامل مانورهای پیچیده، حل مسائل پیچیده مبتنی بر کامپیوتر که احتمالاً شامل داده های بزرگ در کوتاه مدت است.(Joshi 2020)
یادگیری ماشین ( Machine Learning)
اصطلاح “یادگیری ماشین” یا به طور خلاصه ML، در سال ۱۹۵۹ توسط آرتور ساموئل در زمینه حل بازی چکرز توسط ماشین ابداع شد. این اصطلاح به یک برنامه کامپیوتری اطلاق می شود که می تواند رفتاری را بیاموزد که به صراحت توسط نویسنده برنامه، برنامه ریزی نشده باشد و رفتاری را نشان دهد که ممکن است نویسنده کاملاً از آن بی خبر باشد.(Joshi 2020)
آرتور ال ساموئل، در سال ۱۹۴۹ در آزمایشگاه Poughkeepsie به IBM پیوست. تلاش های او به افزایش قدرت محاسباتی ماشین های شرکت کمک کرد. اما او برنامه های کاربردی را نیز برنامه ریزی کرد. بازی چکرز کامپیوتری او، اولین نمونه از یک سیستم یادگیری ماشینی بود. او نشان داد که یادگیری ماشین چگونه کار میکند – به عبارت دیگر، یک کامپیوتر میتواند با پردازش دادهها بدون نیاز به برنامهریزی صریح یاد بگیرد و بهبود یابد. این امر با استفاده از مفاهیم پیشرفته آمار، به ویژه با تحلیل احتمال امکان پذیر شد. بنابراین، یک کامپیوتر می تواند برای پیش بینی دقیق آموزش داده شود.(Taulli and Oni 2019)
با پیشرفت های تکنولوژیکی در سال های اخیر، اصطلاحات جدیدی شروع به ظهور کرده اند. داده های بزرگ صنعت و هوش مصنوعی محبوب ترین ها هستند. اگرچه یادگیری ماشین به اندازه این اصطلاحات محبوب نیست، اما مفهومی است که در حال افزایش است. با این حال، سوالات بسیاری پیرامون یادگیری ماشینی وجود دارد. یادگیری ماشینی امروزه در بخش ها و برنامه های مختلف کاربرد دارد و استفاده از آن به تدریج در حال افزایش است. یادگیری ماشینی زیر حوزه هوش مصنوعی است ..سیستمهای فناوری اطلاعات بهطور خودکار الگوها و روابط را از دادهها یاد میگیرند و بدون برنامهریزی صریح به دست میآورند. علاوه بر این، یادگیری ماشینی می تواند به طور خودکار دانش تولید کند، الگوریتم ها را آموزش دهد، روابط را شناسایی کند و الگوهای ناشناخته را تشخیص دهد. این الگوها و روابط شناسایی شده را می توان برای یک مجموعه داده جدید و ناشناخته به منظور پیش بینی و بهینه سازی فرآیندها استفاده کرد.(Aggarwal et al. 2022)
الگوریتم های یادگیری ماشینی را می توان به سه بخش اصلی طبقه بندی کرد:
- الگوریتم های یادگیری تحت نظارت (Supervised learning algorithms)
- الگوریتم های یادگیری بدون نظارت (Unsupervised learning algorithms)
- الگوریتم های یادگیری تقویتی (Reinforcement learning algorithms)
الگوریتم های یادگیری تحت نظارت
برای درک آسان تر، سیستم ML را میتوان به عنوان یک جعبه سیاه در نظر گرفت که با دادن مقداری ورودی مقداری خروجی تولید می کند. اگر از قبل یک داده تاریخی در دست باشد که شامل مجموعه ای از خروجی ها برای مجموعه ای از ورودی ها باشد، آنگاه یادگیری مبتنی بر این داده ها تحت عنوان یادگیری نظارت شده نامیده می شود. یک مثال ساده از یادگیری تحت نظارت، طبقه بندی است. فرض کنید ما ۴ ویژگی مختلف (طول کاسبرگ، عرض کاسبرگ، طول گلبرگ و عرض گلبرگ) از ۳ نوع گل مختلفبا نام های مشخص و را اندازه گیری کرده ایم. برای مثال ۲۵ نمونه مختلف از هر نوع گل اندازه گیری شده است. این داده ها به عنوان داده های آموزشی عمل می کنند که در آن ورودی ها (۴ ویژگی اندازه گیری شده) و خروجی های مربوطه (نوع گل) برای آموزش مدل، موجود است. سپس، یک مدل ML مناسب را می توان به صورت نظارت شده آموزش داد. هنگامی که مدل آموزش داده شد، میتوانیم هر گل (بین سه نوع شناخته شده) را بر اساس اندازهگیریهای کاسبرگ و گلبرگ طبقهبندی کنیم.
الگوریتم های یادگیری بدون نظارت
در پارادایم یادگیری بدون نظارت، داده های برچسب گذاری شده در دسترس نیستند. یک مثال ساده از یادگیری بدون نظارت خوشهبندی است. همان مثال را در نظر بگیرید، جایی که ما اندازه گیری های کاسبرگ را و ابعاد گلبرگ سه نوع گل را داریم. با این حال، نام دقیق گل ها را برای هر مجموعه اندازه گیری مشخص نیست و به ما گفته می شود که این اندازه گیری ها متعلق به سه نوع مختلف گل می باشد. در چنین مواردی می توان از تکنیک های یادگیری بدون نظارت، برای شناسایی خودکار سه دسته از اندازه گیری ها استفاده کرد.
الگوریتم های یادگیری تقویتی
یادگیری تقویتی نوع خاصی از روش های یادگیری است که باید جدا از روش های تحت نظارت و بدون نظارت مورد بررسی قرار گیرد. یادگیری تقویتی شامل بازخورد از محیط است، بنابراین دقیقاً بدون نظارت نیست، با این حال، مجموعهای از نمونههای برچسبگذاری شده برای آموزش را نیز ندارد و از این رو نمی توان آن را تحت نظارت قرار داد. در روشهای یادگیری تقویتی، سیستم در جستجوی ایجاد رفتار مطلوب با محیط به طور مداوم در تعامل است و از محیط بازخورد میگیرد.(Joshi 2020)
الگوریتم های معمول یادگیری ماشین، الگوریتم های تحت نظارت و بدون نظارت می باشند. شکل، یک چارچوب کلی برای الگوریتم های یادگیری ماشین نشان می دهد.(Taulli and Oni 2019)
اصطلاحات هوش مصنوعی و رباتیک تا حدی فراگیر شدهاند که مردم از اینکه، ماشینها کنترل زندگی آنها را در دست بگیرند و نقش انسان در بسیاری از زمینهها کاهش یابد، نگران اند. [۱]. انسان ها با استفاده از استعدادها، مهارت ها و توانایی های خود و کاری که سایر موجودات نمی توانند انجام دهند، از بقیه متمایز می شوند. افراد از نظر خلاقیت و برتری نیز از یکدیگر متمایز هستند و افرادی که برجسته هستند دارای هوش می باشند که هوش انسان توانایی و مهارت حل مسائل است [۲].
علاوه بر پیشرفت در رویکردهای مفهومی، نظریهها و مدلهای جدید، هوش مصنوعی محرکهای مهم دیگری نیز داشت. (Taulli and Oni 2019)
- رشد انفجاری در مجموعه داده ها: اینترنت یک عامل اصلی برای هوش مصنوعی بوده است، زیرا امکان ایجاد مجموعه داده های عظیم را فراهم کرده است.
- زیرساخت: شاید مهم ترین شرکت برای هوش مصنوعی در طول ۱۵ سال گذشته یا بیشتر گوگل باشد. برای همگام شدن با نمایه سازی وب – که با سرعتی سرسام آور در حال رشد بود – این شرکت مجبور شد رویکردهای خلاقانه ای برای ساخت سیستم های مقیاس پذیر ارائه دهد. نتیجه نوآوری در خوشه های سرور کالا، مجازی سازی و نرم افزار منبع باز بوده است. گوگل همچنین با راه اندازی پروژه “Google Brain” در سال ۲۰۱۱ یکی از اولین پذیرندگان یادگیری عمیق بود.
- پردازندههای گرافیکی (واحدهای پردازش گرافیکی): این فناوری تراشه که توسط NVIDIA پیشگام بود، در اصل برای گرافیکهای پرسرعت در بازیها بود. اما معماری پردازندههای گرافیکی در نهایت برای هوش مصنوعی نیز ایدهآل خواهد بود. (Taulli and Oni 2019)
ساختار هوش مصنوعی
شکل، نحوه ارتباط عناصر اصلی هوش مصنوعی را با یکدیگر نشان میدهد. در بالا، هوش مصنوعی قرار دارد که طیف گسترده ای از نظریه ها و فناوری ها را پوشش می دهد. سپس می توانید این را به دو دسته اصلی تقسیم کنید: یادگیری ماشینی و یادگیری عمیق.(Taulli and Oni 2019)
مبانی داده ها
درک درستی از اصطلاحات تخصصی داده ها خوب است. اول از همه، بیت، کوچکترین شکل داده در یک کامپیوتر است. آن را به عنوان اتم در نظر بگیرید. یک بیت می تواند ۰ یا ۱ باشد که باینری است. همچنین معمولاً برای اندازه گیری میزان داده ای که در حال انتقال است (مثلاً در یک شبکه یا اینترنت) استفاده می شود. از طرف دیگر، یک بایت بیشتر برای ذخیره سازی است. البته تعداد بایت ها می تواند خیلی سریع زیاد شود.
داده ها همچنین می توانند از منابع مختلفی به دست آیند. در اینجا فقط یک نمونه است:
- وب/اجتماعی (فیس بوک، توییتر، اینستاگرام، یوتیوب)
- دادههای بیومتریک (ردیابهای تناسب اندام، آزمایشهای ژنتیک)
- سیستم های فروش (از فروشگاه های آجر و ملات
- سایت های تجارت الکترونیک
- اینترنت اشیا یا اینترنت اشیا (برچسبهای شناسه و دستگاههای هوشمند)
- سیستم های ابری (برنامه های تجاری مانند Salesforce.com
- پایگاه داده ها و صفحات گسترده شرکتی(Taulli and Oni 2019)
انواع داده ها
داده های ساختار یافته وجود دارد که معمولاً در یک پایگاه داده یا صفحه گسترده رابطه ای ذخیره می شوند. برخی از نمونه ها شامل موارد زیر است:
- اطلاعات مالی
- شماره های تامین اجتماعی
- آدرس ها
- اطلاعات محصول
- داده های نقطه فروش
- شماره تلفن ها
در عوض، اکثریت دادههای بدون ساختار میباشند، که اطلاعاتی هستند که قالببندی از پیش تعریف شده ندارند. شما باید خودتان این کار را انجام دهید، که ممکن است خسته کننده و وقت گیر باشد. اما ابزارهایی وجود دارند که می توانند به این فرآیند کمک کنند. سیستمهای هوش مصنوعی از نظر مدیریت و ساختار دادهها نیز مؤثر هستند، زیرا الگوریتمها میتوانند الگوها را تشخیص دهند.
در اینجا نمونه هایی از داده های بدون ساختار آورده شده است:
- تصاویر
- فیلم های
- فایل های صوتی
- فایل های متنی
- اطلاعات شبکه های اجتماعی مانند توییت ها و پست ها
- تصاویر ماهواره ای
برخی دادهها وجود دارند که ترکیبی از منابع ساختاریافته و غیرساختیافته هستند که دادههای نیمه ساختاریافته نامیده میشوند. اطلاعات دارای برخی برچسب های داخلی است که به دسته بندی کمک می کند.
نمونههایی از دادههای نیمه ساختاریافته شامل XML (زبان نشانهگذاری توسعهیافته)، که بر اساس قوانین مختلف برای شناسایی عناصر یک سند است، می باشد. اما داده های نیمه ساختاریافته تنها حدود ۵ تا ۱۰ درصد از کل داده ها را نشان می دهد.
در نهایت، دادههای سری زمانی وجود دارد که میتواند هم برای دادههای ساختیافته، بدون ساختار و هم برای دادههای نیمه ساختاریافته باشد. این نوع اطلاعات برای تعامل است، مثلاً وقتی کاربر وارد وبسایتی میشود، از یک برنامه استفاده میکند یا حتی وارد فروشگاه میشود، این کار، جمعآوری اطلاعات است. درک این نوع داده ها دشوار است. ما احتمالاً هوش مصنوعی برای چنین مسائلی حیاتی است. اگرچه، در بیشتر موارد، تجزیه و تحلیل داده های سری زمانی هنوز در مراحل اولیه است.(Taulli and Oni 2019)
داده های بزرگ (Big Data)
پردازش کلان داده از مفاهیم اصلی در هوش مصنوعی و یادگیری ماشین می باشد که زمان ظهور محاسبات ابری به یک فصل بسیار جالب و هیجان انگیز در زمینه هوش مصنوعی و ML تبدیل شده است. اگرچه اندازه حافظه خاصی وجود ندارد که داده ها بزرگ نامیده شود، تعریف عمومی پذیرفته شده به شرح زیر است: زمانی که اندازه داده به اندازه کافی بزرگ باشد که نتوان آن ها را روی یک ماشین پردازش کرد، به آن داده های بزرگ می گویند.(Joshi 2020)
مقدار داده مورد نیاز هوش مصنوعی
هر چه داده بیشتر باشد، بهتر است، درست است؟ معمولاً اینطور است. به چیزی به نام پدیده هیوز نگاه کنید. این نشان می دهد که با اضافه کردن ویژگی ها به یک مدل، عملکرد به طور کلی افزایش می یابد. ممکن است به نقطه ای برسد که داده ها شروع به تنزل کنند. به گفته چارلز ایزبل، استاد و دانشیار ارشد دانشکده محاسبات تعاملی در جورجیا تک “با افزایش تعداد ویژگی ها یا ابعاد، مقدار داده هایی که برای تعمیم دقیق نیاز داریم به طور تصاعدی افزایش می یابد.” این مسئله، می تواند داشتن یک مدل خوب را غیرممکن کند زیرا ممکن است داده های کافی وجود نداشته باشد.
به همین دلیل است که وقتی صحبت از برنامه هایی مانند تشخیص بینایی می شود، ابعاد داده می تواند کاملاً مشکل ساز باشد. حتی هنگام تجزیه و تحلیل تصاویر RGB، تعداد ابعاد تقریباً ۷۵۰۰ است. تصور کنید که این فرآیند با استفاده از ویدیوی واقعی و با کیفیت بالا چقدر فشرده خواهد بود.(Taulli and Oni 2019).
استفاده از مطالب با ذکر منبع بلامانع است.
هسته فناور انرژی تبریز
منابع
Aggarwal, Karan, Maad M Mijwil, Abdel-Hameed Al-Mistarehi, Safwan Alomari, Murat Gök, Anas M Zein Alaabdin, and Safaa H Abdulrhman. 2022. ‘Has the Future Started? The Current Growth of Artificial Intelligence, Machine Learning, and Deep Learning’, Iraqi Journal for Computer Science and Mathematics, ۳: ۱۱۵-۲۳.
Cioffi, Raffaele, Marta Travaglioni, Giuseppina Piscitelli, Antonella Petrillo, and Fabio De Felice. 2020. ‘Artificial intelligence and machine learning applications in smart production: Progress, trends, and directions’, Sustainability, ۱۲: ۴۹۲.
Fjelland, Ragnar. 2020. ‘Why general artificial intelligence will not be realized’, Humanities and Social Sciences Communications, ۷: ۱-۹.
Hamet, Pavel, and Johanne Tremblay. 2017. ‘Artificial intelligence in medicine’, Metabolism, ۶۹: S36-S40.
Huang, Ming-Hui, and Roland T Rust. 2018. ‘Artificial intelligence in service’, Journal of Service Research, ۲۱: ۱۵۵-۷۲.
Joshi, Ameet V. 2020. ‘Machine learning and artificial intelligence’.
Martin-Isla, Carlos, Victor M Campello, Cristian Izquierdo, Zahra Raisi-Estabragh, Bettina Baeßler, Steffen E Petersen, and Karim Lekadir. 2020. ‘Image-based cardiac diagnosis with machine learning: a review’, Frontiers in cardiovascular medicine: ۱.
Miailhe, Nicolas, and Cyrus Hodes. 2017. ‘The third age of artificial intelligence’, Field Actions Science Reports. The journal of field actions: ۶-۱۱.
Signorelli, Camilo Miguel. 2018. ‘Can computers become conscious and overcome humans?’, Frontiers in Robotics and AI, ۵: ۱۲۱.
Taulli, Tom, and Michael Oni. 2019. Artificial intelligence basics (Springer).
on هوش مصنوعی