افکار در مورد هوش مصنوعی هنگام اشکال زدایی

به تازگی ، من در حال بررسی کارگزاران پیام ، به ویژه کافکا ، با استفاده از Docker Compose برای تنظیمات بودند. از جمله خدمات مورد استفاده کافدروپ ، داشبورد تسهیل نظارت بر مباحث و پارتیشن های کافکا بود. در حالی که ناشر یکپارچه کار می کرد ، با چالش های شبکه در سرویس های Docker روبرو شد و مانع بارگذاری وقایع در داشبورد کافدروپ شد.
من می دانم که نام سرویس می تواند به عنوان URL میزبان برای اتصال در داخل برنامه و همچنین سایر ظروف خواهر و برادر با آهنگسازی استفاده شود. اما این نتیجه گیری نکرد.
بنابراین ، من مستقیماً به AI Copilot می روم که به طور خاص در VSCode من نصب شده است. با توجه به دسترسی به فضای کار ، بنابراین زمینه نیز وجود دارد.
بیش از یک ساعت را گذراند ، اما نتوانست کار کافدروپ را بدست آورد.
سپس من Claud را امتحان کردم ، که این اصلاح را به من می دهد که معلوم است این یک متغیرهای ENV با Kafka است تا اجازه دهد به ناشر و همچنین Kafdrop متصل شود.
گفتن این داستان برای مشخص کردن چیزی ، یعنی با ظهور LLMS و هر دو روز است که می بینیم LLM جدید در حال آمدن است. حالا به جای اینکه فقط Googling و به دنبال پاسخ های Stackoverflow باشم ، وقت خود را صرف تلاش برای LLM های مختلف می کنم ، خوش شانس بودم که کلود را به عنوان شوت دوم خود امتحان کردم ، که می داند اگر من سایر LLM ها را امتحان کردم ، سریعاً اصلاح می کنم.
این من را به نتیجه می رساند ، در این مرحله ، من در یک حفره هستم ، به این معنی که دیروز وقت خود را صرف جستجوی جواب در Google/Stackoverflow می کردم ، اکنون من وقت خود را صرف خرید در اطراف تلاش برای LLM های مختلف می کنم که به امید دریافت پاسخ رفع مسئله من مطمئن نیستید ، با آمدن LLM های جدید هر روز ، آیا ما واقعاً با استفاده از LLM ها که به دنبال پاسخ صحیح هستند ، صرفه جویی می کنیم؟