![[personal profile]](https://www.dreamwidth.org/img/silk/identity/user.png)
Пообщалась с perplexity.ai.
В плюсах: довольно хорошо переводит тексты и исправляет ошибки. Неплохо сводит информацию в таблицы и распознает картинки.
В минусах: Я попросила сделать расчет энергетической ценности корма на двух языках: украинском и итальянском. Корм один и тот же, вводила следующий состав:
Proteine gregge 11.0 %
Grassi greggi 4.0 %
Fibre grezze 0.3 %
Ceneri gregge 2.0 %
Umidità 81.0 %
По расчету на украинском - 29 ккал, по расчету на итальянском - 77,5 ккал.
Вывод: если ты не очень хорошо ориентируешься в теме, то тебе подсунут фигню. Первый ответ всегда неправильный. Второй тоже. После ряда уточнений результат на украинском получился 78,5 ккал.
В плюсах: довольно хорошо переводит тексты и исправляет ошибки. Неплохо сводит информацию в таблицы и распознает картинки.
В минусах: Я попросила сделать расчет энергетической ценности корма на двух языках: украинском и итальянском. Корм один и тот же, вводила следующий состав:
Proteine gregge 11.0 %
Grassi greggi 4.0 %
Fibre grezze 0.3 %
Ceneri gregge 2.0 %
Umidità 81.0 %
По расчету на украинском - 29 ккал, по расчету на итальянском - 77,5 ккал.
Вывод: если ты не очень хорошо ориентируешься в теме, то тебе подсунут фигню. Первый ответ всегда неправильный. Второй тоже. После ряда уточнений результат на украинском получился 78,5 ккал.
no subject
Date: 2025-06-25 04:32 pm (UTC)В стандартной конфигурации LLM не обязательно выбирает наиболее вероятный следующий токен. С ненулевой вероятностью может выбрать второй или третий, и этот выбор повлияет на все последующие токены. Поэтому если задать один и тот же вопрос в двух разных чистых сессиях, даже на том же языке, всё равно можно получить два разных ответа.
Локальной модели можно поставить нулевую температуру, чтобы она всегда отвечала одинаково. Но это не значит, что ошибок не будет, просто они будут повторяемы.
no subject
Date: 2025-06-25 05:26 pm (UTC)