Last updated on August 7, 2024
Цей розділ містить список інструментів, що не належать до інтегрованого середовища розробки (ІСР), але корисні для створення запитів.
Великі мовні моделі (ВММ) з’являються як трансформаційна технологія, що дозволяє розробникам створювати застосунки, які вони раніше не могли. Однак, використання ВММ ізольовано часто є недостатнім, щоб створити справді сильний застосунок – справжня потужність приходить, коли ви можете поєднати їх з іншими джерелами обчислень або інформації.
Ця бібліотека призначена для допомоги в розробці таких типів застосунків.
Платформа Dust допомагає створювати застосунки на основі ВММ у вигляді ряду запитових викликів до зовнішніх моделей. Вона забезпечує простий у використанні графічний інтерфейс користувача для побудови ланцюгів із запитів, а також набір стандартних блоків і власну мову програмування для розбору та обробки результатів застосування мовної моделі.
У ні є низка функцій, щоб зробити розробку застосунків швидшою, легшою та надійнішою:
Навчання на основі запитів – це найновіша парадигма для адаптації попередньо навчених мовних моделей (Pre-trained language model, PLM) до завдань з обробки природної мови (Natural Language Processing, NLP), яка змінює введений текст за допомогою текстового шаблону та безпосередньо використовує PLM для виконання попередньо навчених завдань. OpenPrompt – це бібліотека, створена на основі PyTorch, що надає стандартну, гнучку та розширену структуру для розгортання послідовності навчання на основі запитів. OpenPrompt підтримує завантаження PLM безпосередньо з платформи huggingface transformers. У майбутньому ми також підтримуватимемо PLM, реалізовані іншими бібліотеками.
⚡ Перевірте набір запитів для ВММ, перш ніж надсилати їх на виробництво⚡
Бібліотека службових програм NPM для створення та підтримки підказок для ВММ.
Покладатися лише на ВММ часто недостатньо для створення застосунків та інструментів. Щоб повністю розкрити їхній потенціал, необхідно інтегрувати ВММ з іншими джерелами обчислень або знань і підготувати конвеєр передачі даних до виробництва.
Ця бібліотека спрямована на допомогу в розробці конвеєра передачі даних для використання ключів API у ВММ під час виробництва, вирішення завдань NLP, таких як розпізнавання іменованих сутностей (Named Entity Recognition, NER), класифікація, запитання, відповіді, підсумовування, перетворення тексту в графік тощо, а також надання потужних агентів для створення чат-агентів для різних завдань.
TextBox 2.0 – це сучасна бібліотека написання тексту на основі Python і PyTorch, яка зосереджена на побудові уніфікованого та стандартизованого конвеєра передачі даних для застосування попередньо навчених мовних моделей до написання тексту:
«ThoughtSource – це центральний відкритий ресурс і спільнота, що зосереджені на даних та інструментах для механізму ходу думок у міркуванні у великих мовних моделях (Вей, 2022). Наша довгострокова мета полягає в забезпеченні надійних і стійких міркувань у передових системах ШІ для сприяння розвитку наукових досліджень та медичної практики.»
GPT Index – це проєкт, що складається з набору структур даних, призначених для полегшення використання великих зовнішніх баз заповнених інформацією з ВММ.
Анімаційні відео створені з допомогою ШІ
Будування запитів візуально
ICE – це бібліотека Python і візуалізатор-відтворювач для програм мовної моделі.
PTPT – це інструмент командного рядка, який дозволяє легко конвертувати звичайні текстові файли, використовуючи попередньо визначені запити, за допомогою ChatGPT. Завдяки PTPT ви можете без особливих зусиль створювати формати запитів і ділитися ними, полегшуючи співпрацю та налаштування. Крім того, підписавшись, ви отримуєте доступ до ще більшої кількості запитів, щоб покращити процес вашої роботи. Якщо ви зацікавлені в інженерії запитів, ви можете використовувати PTPT, щоб розробити та поділитися своїми запитами.
Платформа для співпраці з низьким кодом для запитів ШІ
Ding, N., Hu, S., Zhao, W., Chen, Y., Liu, Z., Zheng, H.-T., & Sun, M. (2021). OpenPrompt: An Open-source Framework for Prompt-learning. arXiv Preprint arXiv:2111.01998. ↩
Tang, T., Junyi, L., Chen, Z., Hu, Y., Yu, Z., Dai, W., Dong, Z., Cheng, X., Wang, Y., Zhao, W., Nie, J., & Wen, J.-R. (2022). TextBox 2.0: A Text Generation Library with Pre-trained Language Models. ↩
Liu, J. (2022). GPT Index. https://doi.org/10.5281/zenodo.1234 ↩