رفتن به محتوای اصلی

مقدمه‌ آشنایی و آموزش هوش مصنوعی

منابع آموزش و آشنایی با مفاهیم کاربردی هوش مصنوعی

دستنامۀ «هوش مصنوعی برای سازمان‌های غیرانتفاعی» 

هوش مصنوعی برای سازمان‌های غیرانتفاعی.jpg

توصیه می‌شود فهرست این دستنامه را مرور کنید و برای مطالعه بیشتر هر کدام از عناوین به متن دستنامه مراجعه کنید. 


 

فهرست
  • پیش‌گفتار

  • مقدمه

    • هدف دست‌نامه

    • مخاطب دست‌نامه

  1. هوش مصنوعی چه هست و چه نیست؟

    1. چرا هوش مصنوعی برای سازمان‌های غیرانتفاعی اهمیت دارد؟

    2. باورهای غلط در ارتباط با هوش مصنوعی

  2. دسته‌بندی و موارد استفاده از ابزارهای هوش مصنوعی در سازمان‌های غیرانتفاعی

    1. پلتفرم‌های تعامل با هوش مصنوعی (مدل‌های زبانی بزرگ)

      1. مدل‌های زبانی بزرگ اصلی و پلتفرم‌های آن‌ها

      2. پلتفرم‌های واسط جهت تعامل با مدل‌های زبانی

        • پرپلکسیتی

        • مونیکا

        • اوپن روتر

        • اول ای‌آی

        • گپ چی‌پی‌تی

        • زیرک

        • متیس

        • آتنا

        • چت کیوتی

    2. چت‌بات‌ها و دستیارهای مجازی خاص

    3. عامل‌های هوش مصنوعی

    4. ابزارهای تبدیل محتوایی

    5. ابزارهای ویرایشگر هوشمند

    6. ابزارهای داده‌محور و تحلیلی

    7. ابزارهای پردازش و مدیریت محتوا

    8. دستیارهای تحقیقاتی هوش مصنوعی

    9. مرور برخی راهکارهای نمونه‌ای و مختص سازمان‌های غیرانتفاعی

      • ابزارهای هوش مصنوعی برای مدیریت مشارکت حامیان و جمع‌آوری کمک‌های مالی

      • ابزارهای هوش مصنوعی برای پشتیبانی از مددجویان

      • ابزارهای هوش مصنوعی برای بازاریابی و حمایت

      • ابزارهای هوش مصنوعی برای مدیریت عملیات و منابع

      • ابزارهای هوش مصنوعی برای تجزیه و تحلیل داده‌ها و اندازه‌گیری تاثیر

    10. مزایای کلی استفاده از این ابزارها برای سازمان‌های غیرانتفاعی:

    11. نکات تکمیلی برای انتخاب ابزار مناسب

    12. جمع‌بندی

  3. حل مسئله با هوش مصنوعی: یک چارچوب عملی

    • درک مسئله

    • تعریف اهداف و انتظارات

    • انتخاب ابزار هوش مصنوعی مناسب

    • استفاده از هوش مصنوعی برای یافتن راه‌حل‌ها

    • همکاری انسان و هوش مصنوعی

    • آزمایش و تکرار راه‌حل‌ها

    • بررسی یک مثال به صورت کامل بر اساس این چارچوب

    • جمع‌بندی

  4. ملاحظات اخلاقی و چالش‌ها

    • رفع تعصب در الگوریتم‌های هوش مصنوعی

    • تضمین حریم خصوصی و امنیت داده‌ها

    • توازن بین خودکارسازی و ارتباط انسانی

    • شفافیت و پاسخگویی

    • عدالت در دسترسی به فناوری هوش مصنوعی

    • اتکای بیش از حد به ابزارهای هوش مصنوعی

    • ملاحظات زیست‌محیطی

    • نکات عملی برای استفاده اخلاقی از هوش مصنوعی در سازمان‌های غیرانتفاعی

    • جمع‌بندی

  5. روندهای آینده: نقش هوش مصنوعی در سازمان‌های غیرانتفاعی

    • شخصی‌سازی مبتنی بر هوش مصنوعی

    • تحلیل پیش‌بینی‌کننده برای تصمیم‌گیری‌های راهبردی

    • واقعیت مجازی و واقعیت افزوده مبتنی بر هوش مصنوعی

    • اندازه‌گیری تأثیر در لحظه

    • نگارش و گزارش‌دهی پیشرفته با هوش مصنوعی

    • یکپارچگی بیشتر هوش مصنوعی در پلتفرم‌های همکاری

    • هوش مصنوعی برای تنوع، عدالت و شمول

    • هوش مصنوعی به‌عنوان محرک همکاری و مشارکت

    • شیوه‌های پایدار و اخلاقی هوش مصنوعی

    • جمع‌بندی

  6. کاربرگ‌ها و قالب‌های عملی

    • چک‌لیست ارزیابی نیازها

    • قالب چارچوب حل مسئله با هوش مصنوعی

    • قالب پیشنهاد پروژه آزمایشی هوش مصنوعی

    • راهنمای ارزیابی و اندازه‌گیری بازگشت سرمایه

    • قالب ارتباط با ذی‌نفعان

    • قالب زمان‌بندی اجرای هوش مصنوعی

    • چک‌لیست آمادگی داده‌ها

    • جمع‌بندی

  7. واژه‌نامه‌ای از اصطلاحات پایه هوش مصنوعی

    • A

    • B

    • C

    • D

    • E

    • H

    • L

    • M

    • N

    • P

    • R

    • S

    • T

    • U

    • V

  8. منابع و مراجع برای یادگیری بیشتر

    • کتاب‌ها

    • دوره‌های آنلاین

    • ابزارها و پلتفرم‌های عمومی مرتبط با سازمان‌های غیرانتفاعی

    • انجمن‌ها و تالارهای گفتگو

    • منابع اخلاقی هوش مصنوعی

دوره "هوش مصنوعی برای مبتدیان" شرکت Microsoft

ویدئوهای آموزشی به همراه زیرنویس فارسی

یکی از منابع مفید برای آشنایی افراد مبتدی با هوش مصنوعی (Generative AI for Beginners)، مجموعه‌ای از دوره‌های آموزشی با عنوان "هوش مصنوعی برای مبتدیان" است که توسط شرکت Microsoft تهیه شده است. این دوره‌ها یکی از بهترین گزینه‌های رایگان برای شروع یادگیری مفاهیم و ویژگی‌های پایه‌ای هوش مصنوعی به شمار می‌آیند. این مجموعه از طریق لینک‌هایی که در ادامه ارائه شده است، در دسترس است. 

لینک‌های دانلود ویدئوهای این دوره به‌همراه زیرنویس فارسی آن‌ها در ادامه قرار داده شده است. (لینک مربوط به کانال تلگرام)

1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 | 17 | 18

عناوین و محتوای دوره:

01: Introduction to Generative AI and LLMs (Learn: Understanding what Generative AI is and how Large Language Models (LLMs) work.)

قسمت ۱ در این قسمت:

معرفی ایده استارتاپی ما و ماموریتی که دنبال می‌کنیم،

  • هوش مصنوعی مولد و چگونگی رسیدن ما به فناوری‌های امروزی،
  • نحوه عملکرد درونی یک مدل زبانی بزرگ،
  • قابلیت‌های اصلی و کاربردهای عملی مدل‌های زبانی بزرگ.

02: Exploring and comparing different LLMs (Learn: How to select the right model for your use case)

قسمت ۲ در این قسمت:

  • انواع مختلف مدل‌های زبانی بزرگ (LLM) در فضای فعلی فناوری،
  • آزمایش، تکرار و مقایسه مدل‌های مختلف برای کاربرد مورد نظر شما در پلتفرم Azure،
  • نحوه استقرار (Deploy) یک مدل زبانی بزرگ.

03: Using Generative AI Responsibly (Learn: How to build Generative AI Applications responsibly)

قسمت ۳ در این قسمت:

  • چرا باید در ساخت برنامه‌های مبتنی بر هوش مصنوعی مولد، هوش مصنوعی مسئولانه (Responsible AI) را در اولویت قرار داد،
  • اصول اصلی هوش مصنوعی مسئولانه و ارتباط آن‌ها با هوش مصنوعی مولد،
  • چگونه می‌توان این اصول را از طریق راهبردها و ابزارهای مناسب، به‌صورت عملی پیاده‌سازی کرد.

04: Understanding Prompt Engineering Fundamentals (Learn: Hands-on Prompt Engineering Best Practices)

قسمت ۴ در این قسمت:

  • توضیح اینکه مهندسی پرامپت (Prompt Engineering) چیست و چرا اهمیت دارد،
  • شرح اجزای تشکیل‌دهنده یک پرامپت و نحوه استفاده از آن‌ها،
  • یادگیری بهترین روش‌ها و تکنیک‌های مهندسی پرامپت،
  • به‌کارگیری تکنیک‌های آموخته‌شده در مثال‌های واقعی، با استفاده از یک نقطه‌پایانی (Endpoint) از OpenAI.

05: Creating Advanced Prompts (Learn: How to apply prompt engineering techniques that improve the outcome of your prompts.)

قسمت ۵ در این قسمت:

  • به‌کارگیری تکنیک‌های مهندسی پرامپت برای بهبود نتایج حاصل از پرامپت‌ها،
  • تنظیم و پیکربندی پرامپت‌ها برای ایجاد خروجی‌های متنوع.

06: Building Text Generation Applications (Build: A text generation app using Azure OpenAI / OpenAI API)

قسمت ۶ در این قسمت:

  • آشنایی با کتابخانه OpenAI و مفاهیم اصلی آن،
  • ساخت یک برنامه تولید متن با استفاده از OpenAI،
  • درک نحوه استفاده از مفاهیمی مانند پرامپت، دما (temperature) و توکن‌ها برای توسعه یک برنامه تولید متن.

07: Building Chat Applications (Build: Techniques for efficiently building and integrating chat applications.)

قسمت ۷ در این قسمت:

  • تکنیک‌هایی برای ساخت و یکپارچه‌سازی مؤثر برنامه‌های چت،
  • نحوه اعمال سفارشی‌سازی و تنظیم دقیق (Fine-tuning) در این برنامه‌ها،
  • راهبردها و نکاتی برای پایش (مانیتورینگ) مؤثر برنامه‌های چت.

08: Building Search Apps Vector Databases (Build: A search application that uses Embeddings to search for data.)

قسمت ۸ در این قسمت:

  • جستجوی معنایی (Semantic) در برابر جستجوی مبتنی بر کلمات کلیدی (Keyword)،
  • منظور از تعبیه‌های متنی (Text Embeddings) چیست،
  • ایجاد یک ایندکس از تعبیه‌های متنی،
  • جستجو در یک ایندکس تعبیه‌های متنی.

09: Building Image Generation Applications (Build: An image generation application)

قسمت ۹ در این قسمت:

  • تولید تصویر با هوش مصنوعی و دلیل مفید بودن آن،
  • معرفی DALL·E و Midjourney، اینکه چه هستند و چگونه کار می‌کنند،
  • نحوه ساخت یک اپلیکیشن تولید تصویر با استفاده از این مدل‌ها.

10: Building Low Code AI Applications (Build: A Generative AI application using Low Code tools)

قسمت ۱۰ در این قسمت:

  • مقدمه‌ای بر هوش مصنوعی مولد (Generative AI) در پلتفرم Power Platform،
  • آشنایی با Copilot و نحوه استفاده از آن،
  • استفاده از هوش مصنوعی مولد برای ساخت برنامه‌ها و جریان‌ها (Flows) در Power Platform،
  • درک مدل‌های هوش مصنوعی در Power Platform با استفاده از AI Builder.

11: Integrating External Applications with Function Calling (Build: What is function calling and its use cases for applications)

قسمت ۱۱ در این قسمت:

  • توضیح اینکه فراخوانی تابع (Function Calling) چیست و چه کاربردهایی دارد،
  • ایجاد یک فراخوانی تابع با استفاده از Azure OpenAI،
  • نحوه یکپارچه‌سازی فراخوانی تابع درون یک اپلیکیشن.

12: Designing UX for AI Applications (Learn: How to apply UX design principles when developing Generative AI Applications)

قسمت ۱۲ در این قسمت:

  • مقدمه‌ای بر تجربه کاربری (User Experience) و درک نیازهای کاربران،
  • طراحی برنامه‌های هوش مصنوعی با محوریت اعتماد و شفافیت،
  • طراحی برنامه‌های هوش مصنوعی برای همکاری و دریافت بازخورد از کاربران.

13: Securing Your Generative AI Applications (Learn: The threats and risks to AI systems and methods to secure these systems.)

قسمت ۱۳ در این قسمت:

  • امنیت در چارچوب سیستم‌های هوش مصنوعی،
  • تهدیدها و ریسک‌های رایج برای سیستم‌های هوش مصنوعی،
  • روش‌ها و نکات مهم برای تأمین امنیت سیستم‌های هوش مصنوعی.

14: The Generative AI Application Lifecycle (Learn: The tools and metrics to manage the LLM Lifecycle and LLMOps)

قسمت ۱۴ در این قسمت:

  • درک تغییر پارادایم از MLOps به LLMOps،
  • چرخه‌ حیات مدل‌های زبانی بزرگ (LLM)،
  • ابزارهای مورد استفاده در چرخه‌ حیات،
  • متره‌سازی و ارزیابی چرخه‌ حیات.

15: Retrieval Augmented Generation (RAG) and Vector Databases (Build: An application using a RAG Framework to retrieve embeddings from a Vector Databases)

قسمت ۱۵ در این قسمت: 

  • مقدمه‌ای بر RAG (Retrieval-Augmented Generation)، اینکه چیست و چرا در هوش مصنوعی استفاده می‌شود،
  • درک اینکه پایگاه‌داده‌های برداری (Vector Databases) چیستند و چگونه یکی از آن‌ها را برای اپلیکیشن خود بسازیم،
  • یک مثال عملی از نحوه یکپارچه‌سازی RAG در یک اپلیکیشن.

16: Open Source Models and Hugging Face (Build: An application using open source models available on Hugging Face)

قسمت ۱۶ در این قسمت:

  • درک مدل‌های متن‌باز (Open Source Models)،
  • شناخت مزایای کار با مدل‌های متن‌باز،
  • کاوش در مدل‌های متن‌بازی که در Hugging Face و Azure AI Studio در دسترس هستند.

17: AI Agents (Build: An application using an AI Agent Framework)

قسمت ۱۷ در این قسمت:

  • درک اینکه یک عامل هوش مصنوعی (AI Agent) چیست - دقیقاً یک عامل هوش مصنوعی چه کار می‌کند؟
  • کاوش در چهار چارچوب مختلف عامل‌های هوش مصنوعی - چه ویژگی‌هایی آن‌ها را منحصر به فرد می‌کند؟
  • کاربرد این عامل‌های هوش مصنوعی در موارد مختلف - چه زمانی باید از عامل‌های هوش مصنوعی استفاده کنیم؟

18: Fine-Tuning LLMs (Learn: The what, why and how of fine-tuning LLMs)

قسمت ۱۸ در این قسمت:

  • فاین‌تاینینگ (Fine-tuning) برای مدل‌های زبانی چیست؟
  • کی و چرا فاین‌تاینینگ مفید است؟
  • چگونه می‌توان یک مدل از پیش آموزش‌دیده را فاین‌تاینی کرد؟
  • محدودیت‌های فاین‌تاینینگ چیست؟

 

آکادمی هوش مصنوعی OpenAI

 

OpenAI Academy یک پلتفرم آموزشی است که توسط شرکت OpenAI راه‌اندازی شده تا دسترسی به دانش هوش مصنوعی را برای همه افراد، صرف‌نظر از پیش‌زمینه یا تخصص، فراهم کند. هدف اصلی این آکادمی گسترش آموزش هوش مصنوعی و فراهم‌کردن فرصت برابر برای یادگیری و استفاده از ابزارهای هوش مصنوعی برای همه افراد است.

ویژگی‌های کلیدی OpenAI Academy:
  • آموزش‌ها و برنامه‌های آکادمی برای عموم آزاد و رایگان است تا دسترسی گسترده‌تری فراهم شود.

  • برخی گروه‌های تخصصی یا انجمن‌های خاص ممکن است نیاز به دعوت‌نامه یا معرفی‌نامه داشته باشند.

  • محتوای فعلی آکادمی به زبان انگلیسی ارائه می‌شود، اما برنامه‌هایی برای افزودن زبان‌های دیگر در آینده وجود دارد.

  • تمرکز آکادمی بر ارائه تجربه‌های آموزشی کاربردی و قابل‌فهم برای همه است، نه بر اعطای مدارک رسمی.

  • بخش‌های مختلفی مانند رویدادها (Events)، محتوا (Content)، معرفی آکادمی (About OpenAI Academy) و پرسش‌های متداول (FAQ) در سایت وجود دارد.

  • آکادمی ابتدا فعالیت خود را در ایالات متحده آغاز کرده و قصد دارد به‌زودی در سطح جهانی گسترش پیدا کند.

  • امکان برگزاری رویدادهای حضوری و مجازی وجود دارد و از مؤسسات آموزشی و گروه‌های اجتماعی برای میزبانی این رویدادها دعوت به همکاری شده است.

در مجموع، OpenAI Academy بستری است برای یادگیری و به‌کارگیری هوش مصنوعی به زبان ساده و کاربردی، با هدف ایجاد فرصت‌های برابر برای همه علاقه‌مندان در سراسر جهان.


مهندسی پرامپت (Prompt Engineering) مبحثی حیاتی در حوزه هوش مصنوعی است که آشنایی با آن برای کاربران ابزارهای هوش مصنوعی ضروری است. به همین منظور، صفحه‌ای تحت عنوان «پرامپت‌های کاربری» ایجاد شده است. این صفحه علاوه بر ارائه لیستی از پرامپت‌های آماده، شامل محتوای آموزشی مرتبط نیز می‌شود. لذا به کاربرانی که به دنبال ارتقاء دانش و بهبود کاربرد خود در استفاده از هوش مصنوعی هستند، اکیداً توصیه می‌شود از بخش آموزش‌های ابتدای این صفحه دیدن کنند.


منابع تخصصی‌تر

این منابع معمولاً عمیق‌تر و تخصصی‌تر هستند و برای افرادی مناسب‌اند که قصد دارند در حوزه هوش مصنوعی به مطالعه، تحقیق و بررسی گسترده‌تری بپردازند.


مقدمه‌ای بر هوش مصنوعی

هوش مصنوعی: راهکاری نوین برای دنیای تازه تولید محتوا!

تا به حال به این موضوع فکر کرده‌اید که هوش مصنوعی چطور می‌تواند یک ابرقهرمان در زمینه تولید محتوا از شما بسازد؟ این فناوری نه تنها کیفیت و سرعت فعالیت‌های شما را بهبود می‌بخشد، بلکه شما را به یک استاد فرآوری محتوای دیجیتال تبدیل می‌کند.

مدل‌های زبانی گسترده، درست مانند ساحران دنیای دیجیتال عمل می‌کنند. با استفاده از این مدل‌ها، تولید متن و محتوایتان را تسهیل کرده و تجربه‌ای ماندگار خلق کنید. این مدل‌ها قابلیت‌های بسیار مؤثر و گسترده‌ای دارند و کافی است که کمی با آنها آشنا شوید تا اثرگذاری شگرفشان بر کارهای‌تان را ببینید.

اما هوش مصنوعی تنها در تولید متن پیشرفت نکرده است؛ در همه حوزه‌ها، از نوآوری گرفته تا خلاقیت، هوش مصنوعی فرصت‌های منحصربه‌فردی به ارمغان آورده است. بنابراین، فرصتی نایاب در اختیار شما است که ترکیب این ابزارهای قدرتمند را برای پیشرفت در عرصه فرهنگی و جمع‌آوری ثروت‌های معنوی‌تان به کار گیرید. امیدوار به موفقیت‌های پیش‌رو بوده و با اعتماد وارد دنیای جدید شوید. فرصتی کم‌نظیری پیش روی شما است تا حوزه‌های فعالیت خود را به شکل قابل‌توجهی توسعه دهید!

مقدمه‌ای بر مدل‌های بزرگ زبان (2LLM)‌

مدل‌های زبان بزرگ (LLM)‌ها، سیستم‌های هوش مصنوعی قدرتمندی هستند که با قابلیت‌های جذاب و شگفت‌انگیز خود، می‌توانند به درک عمیق سؤالات کاربران بپردازند و به صورت تعاملی با آن‌ها مکالمه کنند تا کاربر بتواند به بهترین شکل به هدف خود برسد. این مدل‌ها قادرند به صورت هوشمندانه به سوالات پاسخ دهند، مکالمه را ادامه دهند و به طور کامل نیازهای کاربران را درک کنند. توانایی آن‌ها در پردازش و تولید متون طبیعی به گونه‌ای است که کاربران می‌توانند احساس کنند با یک انسان در حال مکالمه هستند. این تعامل طبیعی باعث می‌شود کاربران بتوانند به راحتی به اهداف خود دست یابند، چه در زمینه جستجوی اطلاعات، تولید محتوا یا هر کاربرد دیگری. این مدل‌ها می‌توانند برای مواردی از قبیل ترجمه زبان، تولید محتوا، چت با کاربران و پاسخ به سوالات مورد استفاده قرار گیرند. در اینجا به معرفی برخی از مدل‌های شناخته‌شده و سرویس‌های اصلی آن‌ها می‌پردازیم:

در حال حاضر، چندین شرکت بزرگ و پیشرو در زمینه توسعه هوش مصنوعی فعالیت می‌کنند. OpenAI با توسعه ChatGPT و GPT-4، به عنوان یکی از پیشگامان این عرصه شناخته می‌شود که با همکاری استراتژیک با مایکروسافت، گام‌های بزرگی در این زمینه برداشته است. Google DeepMind، با توسعه مدل‌های قدرتمندی مانند Gemini و PaLM، و موفقیت‌های چشمگیر در زمینه یادگیری تقویتی و پردازش زبان طبیعی، نقش مهمی در پیشرفت این فناوری داشته است. همچنین شرکت‌های نوظهوری مانند Anthropic با توسعه Claude، به رقابت در این عرصه پیوسته‌اند و با تمرکز بر ایمنی و اخلاق در هوش مصنوعی، مسیر جدیدی را در این حوزه ترسیم می‌کنند.

نکته قابل توجه در مورد این هوش‌های مصنوعی، روش یادگیری و آموزش آنهاست. این سیستم‌ها با استفاده از حجم عظیمی از داده‌ها آموزش می‌بینند؛ برای مثال، GPT-3 با بیش از ۴۵ ترابایت متن خام آموزش دیده است که شامل کتاب‌ها، مقالات، صفحات وب و انواع متون دیگر می‌شود. این حجم از داده معادل میلیون‌ها کتاب است که به هوش مصنوعی کمک می‌کند تا الگوها را شناسایی کند، ارتباطات را درک کند و بتواند پاسخ‌های مناسب و منطقی تولید کند. این فرآیند یادگیری مشابه یادگیری انسان است، اما در مقیاسی بسیار بزرگتر و با سرعتی بسیار بالاتر.

یکی از نقاط عطف در تاریخ هوش مصنوعی، معرفی ChatGPT در نوامبر ۲۰۲۲ بود. این چت‌بات هوشمند با شکستن رکورد سریع‌ترین رشد کاربر در تاریخ و جذب ۱۰۰ میلیون کاربر فعال ماهانه در تنها ۲ ماه، به یک پدیده جهانی تبدیل شد. موفقیت چشمگیر ChatGPT را می‌توان به رابط کاربری ساده و در دسترس، توانایی‌های شگفت‌انگیز در درک و تولید متن، رایگان بودن نسخه پایه و البته تبلیغات دهان به دهان و پوشش رسانه‌ای گسترده نسبت داد.

این پیشرفت‌ها منجر به ایجاد یک اکوسیستم گسترده شده است که در آن، شرکت‌های کوچک‌تر می‌توانند از طریق APIها به قدرت مدل‌های بزرگ هوش مصنوعی دسترسی پیدا کنند. این ساختار مانند یک پل ارتباطی عمل می‌کند و به شرکت‌ها اجازه می‌دهد بدون نیاز به سرمایه‌گذاری عظیم در زیرساخت‌ها، از قابلیت‌های هوش مصنوعی در محصولات و خدمات خود استفاده کنند.

صفحه ویکیپدیا مربوط به «مدل زبانی بزرگ»

سایر خدمات و امکانت قابل استفاده هوش مصنوعی

در کنار مدل‌های زبانی بزرگ، هوش مصنوعی کاربردهای متنوع و ارزشمندی برای موسسات فرهنگی دارد که شامل استفاده از فناوری پردازش صوت برای تبدیل مصاحبه‌ها و فایل‌های صوتی به متن، تولید تصاویر و طرح‌های گرافیکی متناسب با نیازهای رسانه‌ای، تهیه فایل‌های ارائه (PowerPoint Presentation) و گزارش‌های حرفه‌ای و جذاب، ارائه خدمات بهتر به بازدیدکنندگان با استفاده از چت‌بات‌های هوشمند، و بهره‌گیری از سیستم‌های ترجمه خودکار برای دسترس‌پذیر کردن محتوا برای مخاطبان بین‌المللی و دسترسی به ترجمه‌های سریع و باکیفیت می‌شود. تمامی این کاربردها می‌تواند به افزایش کارایی و بهبود چشمگیر خدمات این موسسات کمک شایانی کند. البته این‌ها تنها نمونه‌هایی از کاربردهای متنوع هوش مصنوعی هستند و با توجه به پیشرفت سریع این فناوری، می‌توان استفاده‌های بسیار متنوع‌تر و خلاقانه‌تری را برای موسسات فرهنگی متصور بود.

یک نکته در استفاده از هوش مصنوعی: چگونه با تعامل صحیح، ذهن خود را ارتقا دهیم؟

در عصر حاضر، که هوش مصنوعی به شکلی عمیق با زندگی ما گره خورده است، پرسش مهمی مطرح می‌شود: آیا این فناوری توانایی‌های شناختی و تفکر انتقادی ما را تقویت می‌کند یا کاهش می‌دهد؟ این پرسش از آن جهت حائز اهمیت است که کیفیت تعاملات روزمره ما با اطلاعات و تصمیم‌گیری‌هایمان، ارتباط تنگاتنگی با قوای ادراکی و توانایی ما در تفکر انتقادی دارد. پاسخ، طبق تحقیقات دانشگاه MIT، به نوع تعامل ما با هوش مصنوعی بستگی دارد.
این مطالعات نشان می‌دهند که برای ارتقاء قوای ادراکی، نباید صرفاً به دنبال پاسخ‌های سریع از هوش مصنوعی باشیم. بلکه، زمانی هوش مصنوعی به یک محرک تفکر انتقادی تبدیل می‌شود که از آن بخواهیم تبیین‌های منطقی (Causal AI-Explanation) ارائه دهد و یا سوالاتی تحریک‌کننده برای تفکر عمیق‌تر مطرح کند (AI-Framed Questioning). این رویکرد، که بر "خودتوضیح‌دهی‌های پشتیبانی‌شده با هوش مصنوعی" (AI-supported self-explanations) تأکید دارد، دقت افراد را در تشخیص بیانیه‌های منطقاً غلط به شکل چشمگیری افزایش می‌دهد و میل آن‌ها را به راستی‌آزمایی اطلاعات با منابع اضافی تقویت می‌کند. در این شیوه، هوش مصنوعی از یک "اطلاع‌دهنده" صرف به یک "تحریک‌کننده تفکر انتقادی" تبدیل می‌شود.
بنابراین، هنگام استفاده از هوش مصنوعی، به یاد داشته باشید که می‌توانید نقش فعال‌تری ایفا کنید و هوش مصنوعی را به ابزاری برای بهبود مهارت‌های تفکر انتقادی خود تبدیل کنید، نه صرفاً یک ارائه‌دهنده اطلاعات. این بینش کلیدی است که به شما کمک می‌کند در مواجهه با هوش مصنوعی، همواره ذهنی پویا و نقاد داشته باشید.

واژه‌نامه مفاهیم کلیدی در حوزه استفاده از هوش مصنوعی 

RAG یا Retrieval Augmented Generation، یک چارچوب هوش مصنوعی است که با ترکیب مدل‌های زبانی بزرگ (LLM) با یک سیستم بازیابی اطلاعات خارجی، به بهبود قابل توجهی در عملکرد آن‌ها منجر می‌شود. در این روش، پیش از آنکه LLM پاسخی به درخواست کاربر تولید کند، ابتدا اطلاعات مرتبط از یک پایگاه دانش به‌روز (مانند اسناد شرکت، مقالات تحقیقاتی، یا وبسایت‌ها) بازیابی شده و به عنوان زمینه و اطلاعات تکمیلی در اختیار LLM قرار می‌گیرد. این فرآیند به LLM کمک می‌کند تا پاسخ‌هایی دقیق‌تر، مرتبط‌تر، و مبتنی بر واقعیت ارائه دهد و از ارائه اطلاعات نادرست یا منسوخ که صرفاً بر اساس داده‌های آموزشی اولیه مدل هستند (پدیده‌ای که به آن "توهم" یا Hallucination گفته می‌شود) جلوگیری کند. اهمیت RAG در این است که بدون نیاز به بازآموزی پرهزینه و زمان‌بر LLMها، امکان دسترسی آن‌ها به جدیدترین اطلاعات و دانش تخصصی را فراهم می‌کند، و در نتیجه قابلیت اطمینان و کاربردی بودن آن‌ها را در دنیای واقعی به شدت افزایش می‌دهد.

کاربردهای RAG بسیار گسترده و متمرکز بر افزایش دقت و اتکاپذیری LLMها هستند. از جمله مهم‌ترین کاربردها می‌توان به ساخت چت‌بات‌ها و دستیارهای مجازی بسیار هوشمند برای پشتیبانی مشتریان اشاره کرد که قادرند با استناد به اسناد و راهنماهای فنی شرکت، پاسخ‌های دقیق و به‌روز به سوالات کاربران ارائه دهند. همچنین، RAG در سیستم‌های پرسش و پاسخ پیشرفته که نیاز به اطلاعات تخصصی و جاری دارند، ابزارهای خلاصه‌سازی متون طولانی با حفظ نکات کلیدی مبتنی بر منبع، و تولید محتوایی که باید بر اساس داده‌های خاص و تایید شده باشد (مانند گزارش‌های مالی یا تحلیل‌های حقوقی)، نقش حیاتی ایفا می‌کند. با فراهم آوردن امکان استناد به منابع و ارائه پاسخ‌های مبتنی بر داده‌های مشخص، RAG نه تنها کیفیت خروجی LLMها را بهبود می‌بخشد، بلکه شفافیت و اعتماد کاربران به این سیستم‌ها را نیز افزایش داده و راه را برای استفاده گسترده‌تر و مسئولانه‌تر از هوش مصنوعی مولد هموار می‌سازد.

Hallucination

توهم یا Hallucination در مدل‌های زبانی بزرگ (LLM) به پدیده‌ای اطلاق می‌شود که در آن، مدل، اطلاعاتی تولید می‌کند که به نظر منطقی و معتبر می‌آید، اما در حقیقت نادرست، بی‌اساس یا نامرتبط با ورودی ارائه شده است. این خروجی‌های وهم‌آلود می‌توانند شامل ارائه داده‌های ساختگی به‌عنوان واقعیت، استنتاج‌های غیرمنطقی، یا پاسخ‌هایی باشند که با زمینه گفتگو یا دانش موجود در جهان واقعی همخوانی ندارند. برخلاف خطاهای معمول که ممکن است ناشی از درک نادرست پرسش یا محدودیت‌های فنی باشند، توهم زمانی رخ می‌دهد که مدل با اطمینان ظاهری، اطلاعات غلط ارائه می‌دهد. ریشه این پدیده در ماهیت آماری و الگوریتمی این مدل‌ها نهفته است؛ LLMها بر اساس الگوها و روابط موجود در حجم عظیم داده‌های آموزشی خود عمل می‌کنند و فاقد درک یا آگاهی واقعی از جهان هستند. بنابراین، توهمات آن‌ها صرفاً بازتابی از این الگوهای آماری است و نه فرآیندهای شناختی یا ادراکی مشابه انسان.

بروز توهم در LLMها چالش‌های قابل توجهی را به همراه دارد. این پدیده می‌تواند منجر به انتشار اطلاعات نادرست و گمراه‌کننده شود که اعتبار و قابلیت اطمینان این سیستم‌ها را زیر سوال می‌برد، به‌ویژه در کاربردهای حساس مانند پزشکی، حقوق یا مهندسی که دقت اطلاعات حیاتی است. علاوه بر این، تشخیص توهمات برای کاربران، به‌خصوص افراد غیرمتخصص، دشوار است، زیرا پاسخ‌های تولید شده اغلب بسیار متقاعدکننده به نظر می‌رسند. دلایل مختلفی برای وقوع توهم ذکر شده است، از جمله کاستی‌ها و سوگیری‌ها در داده‌های آموزشی، پیچیدگی در تفسیر دستورات (prompts)، محدودیت در بازیابی دقیق اطلاعات مرتبط از حافظه مدل و حتی تلاش مدل برای ارائه پاسخ‌های متنوع و خلاقانه. تلاش‌های زیادی برای کاهش این پدیده در حال انجام است، از جمله بهبود کیفیت داده‌های آموزشی، توسعه تکنیک‌های پیشرفته‌تر برای هم‌راستاسازی مدل با اهداف کاربر (alignment)، و ایجاد مکانیسم‌هایی برای ارزیابی و صحت‌سنجی خروجی‌های مدل. با این حال، توهم همچنان یکی از موانع اصلی در مسیر پذیرش گسترده و استفاده قابل اعتماد از مدل‌های زبانی بزرگ محسوب می‌شود.

Knowledge Cutoff

مفهوم «knowledge cutoff» یا «نقطه قطع دانش» در مدل‌های زبانی بزرگ (LLM) به تاریخی اشاره دارد که داده‌های اصلی آموزشی آن مدل به پایان می‌رسد و دانش پایه آن بر اساس اطلاعات تا همان زمان شکل گرفته است. این بدان معناست که LLM ذاتاً از وقایع، اکتشافات یا اطلاعات جدیدتری که پس از آن تاریخ رخ داده‌اند، آگاهی مستقیمی در حافظه داخلی خود ندارد. با این حال، این محدودیت مطلق نیست. LLMهای مدرن از روش‌هایی مانند ادغام با ابزارهای جستجوی وب برای بازیابی اطلاعات لحظه‌ای، استفاده از تکنیک RAG (Retrieval Augmented Generation) برای دسترسی به پایگاه‌های دانش خارجی و به‌روز، و یا به‌روزرسانی‌های دوره‌ای مدل برای گنجاندن داده‌های جدیدتر، بهره می‌برند تا این شکاف دانشی را پر کنند. بنابراین، اگرچه نقطه قطع دانش یک واقعیت اساسی در معماری LLMهاست، توانایی آن‌ها در ارائه اطلاعات در مورد وقایع روز به طور فزاینده‌ای به این مکانیزم‌های جانبی برای دسترسی و پردازش اطلاعات جدید وابسته است، هرچند دقت و جامعیت این پاسخ‌ها همچنان نیازمند توجه و بررسی است.


1 Transformer
2 Large language model