웹 사이트를 스파이더 링하고 URL 만 반환 웹 사이트를 의사 스파이더하는 방법을 찾고 있습니다. 핵심은 실제로 콘텐츠가 아니라 간단한 URI 목록을 원한다는 것입니다. 옵션을 사용하여 Wget을 사용하면 이 아이디어에 상당히 가까워 질 수 --spider있지만을 통해 해당 출력을 파이핑 할 때 grep제대로 작동하는 마법을 찾을 수없는 것 같습니다. wget --spider --force-html -r -l1 http://somesite.com | grep 'Saving to:' grep필터는 전혀상의 영향이없는 것으로 보인다 wget출력. 내가 뭔가 잘못되었거나 이런 종류의 제한된 결과 집합을 제공하는 데 더 적합한 다른 도구가 있습니까? 최신 정보 그래서 오프라인에서 기본적 wget으로 stderr..