Über die Deutsche Wildtier Stiftung

Deutsche Wildtier Stiftung: Publikationen

Über die Deutsche Wildtier Stiftung

Deutschlands wilde Tiere schützen, ihre Lebensräume erhalten und neue Naturgebiete schaffen, Menschen für die Schönheit und Einzigartigkeit der heimischen Fauna begeistern, der Naturentfremdung – vor allem bei Kindern und Jugendlichen – entgegenwirken: Dafür setzen sich die Mitarbeiterinnen und Mitarbeiter der Deutschen Wildtier Stiftung ein.