Что самый умный путь состоит в том, чтобы обработать robots.txt в Экспрессе?

Я в настоящее время работаю над приложением, созданным с Экспрессом (Node.js), и я хочу знать то, что является самым умным способом обработать различный robots.txt для различных сред (разработка, производство).

Это - то, что я имею прямо сейчас, но я не убежден решением, я думаю, что это грязно:

app.get '/robots.txt', (req, res) ->
  res.set 'Content-Type', 'text/plain'
  if app.settings.env == 'production'
    res.send 'User-agent: *\nDisallow: /signin\nDisallow: /signup\nDisallow: /signout\nSitemap: /sitemap.xml'
  else
    res.send 'User-agent: *\nDisallow: /'

(NB: это - CoffeeScript),

Должен быть лучший путь. Как Вы сделали бы это?

Спасибо.

59
задан 27 February 2013 в 22:41

1 ответ

Это - то, что я сделал на своих индексных маршрутах. Можно просто записать в кодах, что я делаю данный вниз ниже.

router.get('/', (req, res) =>
    res.sendFile(__dirname + '/public/sitemap.xml')
)

router.get('/', (req, res) => {
    res.sendFile(__dirname + '/public/robots.txt')
})
0
ответ дан 1 November 2019 в 12:26

Другие вопросы по тегам:

Похожие вопросы: