

مدلهای هوش مصنوعی که محتوای کاملاً جدیدی تولید میکنند، دنیایی از فرصتها را برای کارآفرینان ایجاد میکنند. و مهندسان در حال یادگیری انجام کارهای بیشتر با کمتر هستند.
اینها برخی از نکات مهم یک بحث میزگرد در اجلاس برنامه های هوشمند بود که این هفته توسط Madrona Venture Group در سیاتل میزبانی شد.
کارلوس گاسترین، استاد علوم کامپیوتر دانشگاه استنفورد، گفت: «من فکر میکنم دادههای بزرگ دیگر یک اولویت نیست. “شما می توانید مشکلات پیچیده را با داده های کم حل کنید.”
گاسترین، یکی از بنیانگذاران استارتاپ یادگیری ماشینی سیاتل Turi که در سال 2016 توسط اپل خریداری شد، گفت: محققان به جای بهبود مدل های هوش مصنوعی با جمع آوری داده های بیشتر، تمرکز بیشتری روی اصلاح طرح های اولیه خود دارند.
و نقشههای هوش مصنوعی به سرعت تغییر میکنند و در نتیجه مدلهایی مانند DALL-E و GPT-3 ایجاد میشوند که میتوانند تصاویر یا متن را از پیامهای اولیه توهم ایجاد کنند.
چنین مدلهای جدید هوش مصنوعی «هستهای» مبنایی برای استارتآپهای نوظهور هستند که محتوای نوشتاری تولید میکنند، مکالمات را تفسیر میکنند یا دادههای بصری را ارزیابی میکنند. اورن اتزیونی، مدیر ارشد فناوری موسسه آلن برای هوش مصنوعی (AI2) گفت: آنها موارد استفاده چندگانه را فعال خواهند کرد. اما آنها همچنین باید رام شوند تا کمتر مغرضانه و قابل اعتمادتر باشند.
«یک چالش بزرگ با این مدلها این است که توهم دارند. آنها دروغ می گویند، آنها تولید می کنند – آنها چیزهایی را می سازند.
گاستین و اتزیونی در یک گفتگوی کنار آتش که توسط پروفسور علوم کامپیوتر UW، لوئیس سِز، که شریک مخاطرهآمیز مادرونا و مدیر عامل استارتآپ هوش مصنوعی سیاتل OctoML نیز هست، صحبت کردند.
OctoML برای فهرست جدید 40 استارتاپ برتر اپلیکیشن هوشمند که توسط Madrona با همکاری شرکت های دیگر گردآوری شده است، انتخاب شد. استارتآپهای موجود در این فهرست از زمان تأسیس بیش از 16 میلیارد دلار، از جمله 5 میلیارد دلار از ابتدای سال جاری تاکنون، جذب کردهاند.
برای نکات برجسته بیشتر از بحث به ادامه مطلب بروید.
مدلهای جدید هوش مصنوعی روش کار مهندسان را تغییر میدهند
مهندسان برای ساختن مدلهای مختلف هوش مصنوعی با پشتههای فناوری منحصربهفرد برای کارهای فردی، مانند پیشبینی بلیط هواپیما یا نتایج پزشکی، استفاده میکنند – و برای بارگذاری مدلها با مجموعه دادههای آموزشی عظیم استفاده میکنند. گسترین گفت، اما اکنون، با استفاده از داده های کمتری به عنوان ورودی، مهندسان در حال توسعه مدل های اساسی برای ساخت ابزارهای خاص هستند.
گسترین گفت: «ما با الگوهای زبان بزرگ و الگوهای زیربنایی، طرز فکرمان در مورد توسعه برنامهها، و فراتر از ایده دادههای بزرگ، کاملاً در حال تغییر هستیم. او افزود که مهندسان از «مجموعههای دادههای کوچک عادتشده برای انجام وظایف خاص برای تنظیم دقیق استفاده میکنند، که در نتیجه یک راهحل عمودی به دست میآید که واقعاً به آن اهمیت میدهید».
اتزیونی افزود: اکنون با مدلهای اولیه، یک مدل میسازم و سپس میتوانم آن را تنظیم کنم. اما بسیاری از کارها از قبل و یکبار انجام می شود.»
هوش مصنوعی «دموکراتیزه شده است“
ابزارهای هوش مصنوعی برای مهندسین با مهارت های تخصصی کمتر در دسترس تر می شوند و هزینه ایجاد ابزارهای جدید در حال کاهش است. گسترین گفت که عموم مردم نیز از طریق ابزارهایی مانند DALL-E دسترسی بیشتری دارند.
گسترین گفت: «من از اینکه چگونه مدلهای زبان بزرگ، مدلهای زیربنایی، به افراد دیگری غیر از توسعهدهندگان اجازه میدهند کارهای شگفتانگیزی با هوش مصنوعی انجام دهند، هیجانزده هستم. مدلهای زبان بزرگ ما را قادر میسازد تا تجربیات برنامهنویسی جدیدی ایجاد کنیم تا برنامههای هوش مصنوعی را برای طیف گستردهای از افرادی که هرگز فکر نمیکردند بتوانند هوش مصنوعی را برنامهریزی کنند، ارائه دهیم.
اعتیاد هنوز یک مشکل است
اعتیاد همیشه مدل های هوش مصنوعی را درگیر خود کرده است. و این مشکل در مدلهای جدید هوش مصنوعی مولد باقی میماند.
به عنوان مثال، گسترین به ابزاری برای خلق داستان اشاره کرد که بسته به نژاد شاهزاده، نتیجه متفاوتی از داستان ایجاد می کند. اگر از ابزار خواسته می شد که داستانی در مورد یک شاهزاده سفید بسازد، او را خوش تیپ توصیف می کرد و شاهزاده خانم عاشق او شد. اگر از او بخواهند با یک شاهزاده سیاهپوست داستانی بسازد، شاهزاده خانم شوکه میشود.
گسترین در مورد تعصبات در مدلهای هوش مصنوعی و توانایی آنها در تأثیرگذاری بر تعصبات عمومی میگوید: «من خیلی نگران آن هستم.
اتزیونی گفت که فناوری جدیدتر در حال توسعه در از بین بردن سوگیری بهتر خواهد بود.
گاسترین گفت که مهندسان باید این مشکل را در تمام مراحل توسعه در نظر بگیرند. او گفت که مهمترین تمرکز مهندسان باید این باشد که چگونه مدل های خود را ارزیابی می کنند و مجموعه داده های خود را آماده می کنند.
“فکر کردن به اینکه پرداختن به شکاف بین هوش مصنوعی و ارزشهایمان فقط کمی نمک است که میتوانیم در پایان روی آن بپاشیم، بهعنوان نوعی پسپردازش، یک دیدگاه محدود است.” گاسترین افزود.
ورودی انسان محوری خواهد بود برای بهبود مدل ها
اتزیونی قیاسی با موتورهای جستجوی اینترنتی ترسیم کرد، که در روزهای اولیه خود اغلب از کاربران می خواستند به روش های مختلف جستجو کنند تا به پاسخ مورد نظر خود دست یابند. گوگل پس از اینکه متوجه شد مردم از میلیاردها پرس و جو روی چه چیزی کلیک می کنند، در اصلاح نتایج خود عالی بود.
اتزیونی گفت: “از آنجایی که مردم این موتورها را درخواست می کنند و آنها را تغییر کاربری می دهند و چیزهایی تولید می کنند، موتورها در کاری که ما می خواهیم انجام دهند بهتر می شوند.” “اعتقاد من این است که ما افرادی را در جریان خواهیم داشت. اما این مانعی برای فناوری نیست.»
هوش مصنوعی همچنین نمی تواند بهترین موارد استفاده خود را پیش بینی کند. اتزیونی گفت: “اگر از GPT-3 بپرسید بهترین و بهترین استفاده شما برای ایجاد استارت آپ های جدید چیست، زباله خواهید دید.”
بهبود قابلیت اطمینان یک تمرکز است
این مدلها، اگرچه شگفتانگیز هستند، اما شکننده هستند. آنها می توانند به روش های فاجعه بار شکست بخورند.
گوسترین گفت که محققان باید یاد بگیرند که چگونه اهداف خود را بهتر تعریف کنند و بپرسند که چگونه سیستم ها را به طور سیستماتیک آزمایش و ارزیابی کنند تا آنها را ایمن تر کنند. او افزود که محققان باید “این تفکر را بیشتر به مهندسی نرم افزار بیاورند.”
یادگیری چگونگی قابل اعتمادتر کردن مدل های هوش مصنوعی تمرکز اصلی تحقیقات در گروه Guestrin در استنفورد و در AI2 است.
زمان بسیار زیادی طول خواهد کشید تا شما یک برنامه مبتنی بر GPT-3 داشته باشید که یک نیروگاه هسته ای را راه اندازی کند. اتزیونی میگوید: «این چنین فناوری نیست. “به همین دلیل است که من فکر می کنم قیاس با موتورهای جستجوی وب بسیار عمیق است. اگر یک انسان در حلقه داشته باشیم و اگر تکرار سریع داشته باشیم، میتوانیم از فناوری بسیار غیرقابل اعتماد به روشی بسیار قدرتمند استفاده کنیم.»