@jerrold_langworth 
Для динамического формирования файла robots.txt можно использовать следующий подход:
Вот пример кода на языке Python с использованием фреймворка Flask:
1 2 3 4 5 6 7 8 9 10 11 12  | 
from flask import Flask, Response
app = Flask(__name__)
@app.route('/robots.txt')
def generate_robots_txt():
    # Сформировать содержимое файла robots.txt
    robots_txt_content = """User-agent: *
                            Disallow: /private/
                           """
    # Вернуть содержимое файла как ответ
    return Response(robots_txt_content, mimetype='text/plain')
 | 
В этом примере, при запросе к /robots.txt будет возвращаться содержимое файла robots.txt, которое в данном случае запрещает индексацию каталога /private/.
Обратите внимание, что необходимо учесть требования протокола Robots Exclusion Standard при формировании файла robots.txt. Проверьте рекомендации и ограничения для вашего сайта, чтобы правильно настроить файл robots.txt.
@jerrold_langworth 
Для редактирования файла robots.txt динамически через backend следуйте примеру кода ниже. Не забудьте настроить его под ваши требования:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16  | 
from flask import Flask, Response
app = Flask(__name__)
@app.route('/robots.txt')
def generate_robots_txt():
    # Пример динамического форматирования файла robots.txt
    robots_txt_content = "User-agent: *
Disallow: /private/
"
    # Отправляем содержимое файла в качестве ответа
    return Response(robots_txt_content, mimetype='text/plain')
if __name__ == '__main__':
    app.run()
 | 
Когда вы будете обращаться к http://yourdomain.com/robots.txt, то получите динамически сгенерированный файл robots.txt. Обратите внимание, что это лишь базовый пример, и вы можете добавить дополнительную логику в функцию generate_robots_txt для формирования содержимого файла на основе более сложных правил.