LLaMA 3 UNCENSORED 🥸 It Answers ANY Question

LLaMA 3 UNCENSORED 🥸 It Answers ANY Question

Тестирование Llama 3: Без цензуры и с контекстом 256k

Введение в Llama 3

  • Обсуждение новой версии Llama 3, которая не имеет цензуры и обладает контекстным окном в 256k. Модель Dolphin 2.9 будет протестирована.
  • Упоминание о возможности выиграть Rabbit R1 при подписке на новостную рассылку, где будут обновления по ИИ.

Характеристики модели

  • Модель Eric Hartford's находится в репозитории Cognitive Computations на Hugging Face; это версия с 8 миллиардами параметров.
  • Указание на наличие ошибки в наборе данных, из-за которой модель может ссылаться на системный запрос почти в каждом ответе.

Тестирование производительности

  • Использование квантованной версии от Pruna AI для тестирования модели; запуск происходит на H100 GPU.
  • Запуск первой задачи — написание игры "Змейка" на Python для проверки скорости вывода кода.

Результаты тестирования кода

  • Модель быстро генерирует код для игры "Змейка", но используется библиотека Turtle, о которой автор не слышал ранее.
  • При попытке запустить код возникают ошибки, что указывает на возможные проблемы с реализацией или самой моделью.

Ошибки и исправления

  • Автор пытается исправить ошибки, вставляя их обратно в модель для получения корректного ответа, но результаты остаются неудовлетворительными.
  • Следующий тест включает сложную математическую задачу; модель снова показывает плохие результаты.

Цензура и возможности модели

Как работает система обработки информации?

Обзор процесса получения ответов

  • Система предоставляет полный ответ на запрос, включая список необходимых материалов и инструкции по их использованию.
  • Приведен пример логической задачи о трех убийцах в комнате, где один из них убивает другого. Вопрос: сколько убийц осталось в комнате?
  • Ответ на задачу оказался неверным, что указывает на проблемы с качеством обработки информации.

Тестирование контекстного окна

  • Начато тестирование контекстного окна размером 256k токенов, которое позволяет обрабатывать большие объемы текста.
  • Для теста используется первая половина книги "Гарри Поттер", содержащая 44,000 токенов. В текст вставляется фраза с паролем для поиска.
  • Система не смогла найти пароль и предложила задать вопрос снова, что указывает на возможные ограничения в обработке больших объемов данных.

Будущие эксперименты

  • Упоминается о планах провести дальнейшие тесты с использованием версии Llama 3 instruct с контекстным окном в миллион токенов.
Video description

LLaMA 3 Dolphin 2.9 uncensored explored and tested * ENTER TO WIN RABBIT R1: https://gleam.io/qPGLl/newsletter-signup Rent a GPU (MassedCompute) 🚀 https://bit.ly/matthew-berman-youtube USE CODE "MatthewBerman" for 50% discount Be sure to check out Pinecone for all your Vector DB needs: https://www.pinecone.io/ Join My Newsletter for Regular AI Updates 👇🏼 https://www.matthewberman.com Need AI Consulting? 📈 https://forwardfuture.ai/ My Links 🔗 👉🏻 Subscribe: https://www.youtube.com/@matthew_berman 👉🏻 Twitter: https://twitter.com/matthewberman 👉🏻 Discord: https://discord.gg/xxysSXBxFW 👉🏻 Patreon: https://patreon.com/MatthewBerman 👉🏻 Instagram: https://www.instagram.com/matthewberman_ai 👉🏻 Threads: https://www.threads.net/@matthewberman_ai Media/Sponsorship Inquiries ✅ https://bit.ly/44TC45V Links: https://huggingface.co/cognitivecomputations/dolphin-2.9-llama3-8b Disclosures: I am an investor in LMStudio