Журнал Nature бьёт тревогу, что множество научных статей сейчас пишется при помощи ChatGPT и выявить их рецензентам можно только, если автор по оплошности оставил в тексте фразы самого ChatGPT вроде таких:
В ритейле сейчас и подавно будет писаться всё больше и больше текстов при помощи ИИ: от фальшивых отзывов до «экспертных» статей.
А теперь только для вас лайфхак - в Nature об этом не знают, а вы будете вооружены. И так, чтобы избежать такой неловкости, просто добавьте в промт просьбу к ChatGPT, чтобы он не использовал эти служебные слова и забудьте об это проблеме.
Всё очень просто, но мы об это никому не скажем, правда же?
На картинке показано сколько в базе уже напечатано статей, где остались ляпы от ChatGPT. Вот вам живая ссылка, где покажутся все статьи.
- «Регенерировать ответ» (переделать ответ)
- «Восстановить ответ» или
- «Как языковая модель искусственного интеллекта, я…»
В ритейле сейчас и подавно будет писаться всё больше и больше текстов при помощи ИИ: от фальшивых отзывов до «экспертных» статей.
А теперь только для вас лайфхак - в Nature об этом не знают, а вы будете вооружены. И так, чтобы избежать такой неловкости, просто добавьте в промт просьбу к ChatGPT, чтобы он не использовал эти служебные слова и забудьте об это проблеме.
Всё очень просто, но мы об это никому не скажем, правда же?
На картинке показано сколько в базе уже напечатано статей, где остались ляпы от ChatGPT. Вот вам живая ссылка, где покажутся все статьи.