Beiträge von tab

    Macht einen guten Eindruck, wie es in der Praxis aussieht muss man halt schauen. Parallaktische Montierung ist gut, Brennweite und Öffnung auch gut für ein Einsteigerteleskop.

    Vielleicht hilft ja auch das hier etwas weiter, falls du das noch nicht selbst gefunden hast: http://www.hobby-astronomie.com/einsteigerteleskop.html

    Ich würde vielleicht eher noch versuchen herauszufinden, wie ernst es ihr bei der Sache ist. Ein mieses Teleskop kann einem die Sache schnell verleiden und ein teureres, das mangels Interesse in der Ecke steht, bringt euch beiden nicht viel Freude. Sie interessiert sich nach ein paar Tagen nicht mehr dafür und du hast eine Stange Geld versenkt. Welche Vergrößerung du für welche Beobachtungen in etwa brauchst, können dir meist Wikipedia oder einschlägige Webseiten sagen. Also z.B. Saturnringe ab ca 40x. Eine motorische Nachführung wäre sicher hilfreich, insbesondere wenn man Bilder machen will. Die Erde dreht sich schneller als man denkt. Eine größere Öffnung ist natürlich bei Beobachtungen am Nachthimmel sicher auch förderlich. In der Großstadt mit ihrer "Lichtverschmutzung" ist man sowieso schnell am Ende der Fahnenstange. Aber wie das halt so ist in der Optik, das kann alles sehr schnell sehr teuer werden. Das sage ich aus leidvoller Erfahrung, wenn ich meine Fotoobjektive so anschaue. Eine Blende mehr kann da beim Preis, aber auch beim Gewicht, schnell einen Faktor 2-4 ausmachen. Meist sogar eher mehr, weil dann auch die (optische und mechanische) Qualität in der Regel höher ist.

    Als ich ein Skript zum Monitoring von Websites per Cron gebaut habe, ist mir das Problem im Webhosting auch aufgefallen. Es wollte mir einfach nicht gelingen, irgendwas auf den STDOUT auszugben und den dann in eine Datei umzuleiten. Beim Testen auf der Seite, wo man den Cronjob definiert, hatte es noch funktioniert. Im Cronjob selbst dann nicht mehr, alles leer. Mein PHP-Skript zum Seitenabruf mit cURL wurde definitiv ausgeführt, ich habe die Zugriffe in den Serverlogs gefunden. Aber die nach STDOUT ausgegebenen Ergebnisse (TTFB usw) kamen nicht in meiner Datei an, in der ich sie sammeln wollte. Sie wurde noch nicht mal angelegt. Letztlich habe ich auf ein Forschungsprojekt verzichtet und alles direkt aus dem PHP-Skript in die Datei geschrieben. Das hat natürlich sofort problemlos funktioniert.

    wie kommst Du darauf?

    frag Teenies nach einer E-mail Adresse und Du wirst ein Staunen hervorbringen,

    welches dafür sorgt dass sie dich anstarren wie ein Mondkalb;:D

    Naja, mehr als 1 Minute googeln kostet sie das aber auch nicht. Noch ne Minute und sie haben eine kostenlose E-Mail-Adresse - falls sie E-Mail vorher wirklich nicht gekannt haben sollten.

    Ich hatte auch mal eine Phishing-Mail von einer "amazön.de" Adresse. Alles ziemlich echt gemacht und man sollte Zugangsdaten eingeben auf einer Website. Ich will nicht wissen wieviele Tausend Amazon-Kunden das auch gemacht haben. Zuerst wollte ich von meiner privaten GMX-Adresse die Abusemeldung mit der angehängten Phishing-Mail an die von Amazon dafür genannte Adresse schicken (es ist Amazon ja angeblich sooo wichtig, dass man das tut. So stand es zumindest damals auf der Amazon-Seite). Nach ein paar Minuten war die Antwort-Mail da, meine Mail-Adresse sei für so eine Meldung nicht vertrauenswürdig genug. Huh? Naja, immerhin die selbe Adresse die als Kontaktadresse bei Amazon seit fast zwei Jahrzehnten prima funktioniert.


    Also nochmal das Ganze von einer anderen Adresse aus, ich habe ja reichlich davon. Diesmal hat es geklappt, keine Ahnung warum. Die Antwort hat auch nicht länger gedauert. Tenor: Man bedanke sich für die Meldung aber man könne da leider auch nichts machen. Sehr bedauerlich. Sollen sie doch gleich auf ihre Seite schreiben: Liebe Kunden, belästigen Sie uns nicht mit Meldungen über Betrugsversuche, die verschieben wir automatisch nach /dev/null, denn die gehen uns am A*sch vorbei.

    Ich glaub, jetzt isses soweit. Meine Nextcloud hat das gelesen und sich verabschiedet. Update auf 19.0.4 wie bisher immer mit dem Web-Updater. Jetzt hängt der bei Step 9, also beim Löschen der alten Dateien. occ ist natürlich schon gelöscht. Ich hau das Ding jetzt in die Tonne. Oder besser, ich lass es erst mal noch ne Weile stehen als mahnendes Denkmal ;(:D. Zuviele Probleme damit, was auch mit dem Webhosting zusammenhängen mag. Recht viele 503er in den Logs der letzten Zeit, dann die News abgeraucht und jetzt das. Auf den Endgeräten muss ich dann halt leider auch Tabula Rasa machen und erwarte da auch noch einige Schwierigkeiten bei, vor allem auf dem Smartphone. Aber jedenfalls besser ein Ende mit Schrecken, als ein Schrecken ohne Ende. Backup hatte ich von dem Teil keins gemacht, war eh nur ein Experiment. Naja, vielleicht gehe ich auch zurück auf den offenbar gesünderen Zustand von über einem Monat. Da habe ich sie von einem anderen Webhosting 8000 auf das neue Webhosting 8000 umgezogen und danach doch einige interessante, aber nicht unbedingt notwendige Dinge installiert. tar-File und Datenbank-Dump vom Umzug existieren noch. Schau mer mal, dann seh mer scho, wie der Franz sagen würde.

    Hmm, wenn die Schwierigkeiten mit Nextcloud immer mehr zunehmen, dann werde ich das Experiment halt beenden und für die wirklich wichtigen Sachen ein Nextcloud-Hosting zulegen. Dann können die sich um die Voraussetzungen kümmern, Ich hab da weder Zeit noch Lust dazu. Und wenn mir das dann für die Leistung zu teuer wird, dann trennen sich halt unsere Wege. Bye bye nextcloud.

    Hmm, sehe gerade, die Feeds sind wohl in der Datenbank gespeichert. Aber bevor ich da versuche zu reparieren bzw Einträge zu löschen, setzte ich lieber die ganze News-App zurück, dafür gibts ja eine Anleitung in der Admin-Doku. Aber jetzt nicht mehr. Warum passiert so ein Mist eigentlich immer dann, wenn man keine Zeit hat? :evil::rolleyes:

    War wohl irgendeine Tabelle kaputt. Ich habe einfach mal probiert, die drei Tabellen im Zusammenhang mit der News-App reparieren zu lassen, bevor ich alles zurücksetze. Jetzt ist alles wieder da. Vertrauenerweckend ist freilich anders. :rolleyes:

    Hmm, sehe gerade, die Feeds sind wohl in der Datenbank gespeichert. Aber bevor ich da versuche zu reparieren bzw Einträge zu löschen, setzte ich lieber die ganze News-App zurück, dafür gibts ja eine Anleitung in der Admin-Doku. Aber jetzt nicht mehr. Warum passiert so ein Mist eigentlich immer dann, wenn man keine Zeit hat? :evil::rolleyes:

    Grrr. Ich könnte meine Nextcloud News App gerade an die Wand klatschen. Zeigt plötzlich die Feeds nicht mehr an. Wenn ich sie aber neu abonnieren will, dann heisst es, dass der Feed bereits existiert. Wie setze ich das notfalls zurück, so dass ich neu abonnieren kann? Oder habe ich irgendwo eine Einstellung übersehen/versehentlich geändert? Das hat jetzt mindestens eine Woche lang fuktioniert, eher länger. Und vor einer halben Stunde war plötzlich alles weg.

    Da wirst du irgendwo einen Webspace auf einem Webserver brauchen, auf den du dann deine Hauptdomain per A/AAAA Record leitest, Die Hauptdomain muss dort auch im Webserver registriert sein. Dort kannst du dann deine Domain umleiten zur anderen Hauptdomain. Per .htaccess, PHP oder wie auch immer.

    Leider gibt es online fast nur Spreader und wenig Journalismus. Bei fast allen Verlagen ist leider ein deutliches Qualitätsgefälle von Printmedien zu Online-Medien ziemlich offensichtlich.Die können teils noch nicht mal Copy & Paste. Ich weiss gar nicht, wie man dabei Schreibfehler erzeugen kann. Obwohl, beim nächsten Fehler kontrolliere ich mal, ob der bei der Konkurrenz auch drin ist. Agenturmeldungen waren freilich schon immer in jeder Zeitung, aber jetzt fallen die Inhalte halt mehr auf, wenn mein RSS-Reader die verschiedenen Nachrichten zum selben Thema direkt untereinander stellt.


    Focus war zumindest früher mal als Spiegel-Konkurrenz angetreten. Focus online ist sogar mit Adblocker nur schwer zu ertragen, ohne gehts gar nicht. Aber auch Spiegel-Online ist sicher deutlich schlechter als früher der Spiegel. Es ist halt einfach so, wenn eine Zeitschrift früher monatlich oder wenigstens nur zweiwöchentlich erschienen ist, dann hat man halt zumindest etwas Zeit für die Inhalte und ordentliche Recherche aufbringen können. Heute, online, muss man halt so und so viel Artikel pro Tag oder gar pro Stunde raushauen. Dass das nicht gründlich recherchiert sein kann ist offensichtlich. Das geht auch am Heise-Angebot nicht spurlos vorbei. Hat man ja schon bei der c't gemerkt, als sie plötzlich die Zahl der Hefte mal eben verdoppelt haben. Die Qualität hat schon damals spürbar darunter gelitten.

    Ich lese Heise in meinem RSS Reader, und da finde ist es ganz gut gelöst. Alle kostenpflichtigen Artikel beginnen schon in der Überschrift mit "heise+", damit ist dann sofort ersichtlich, wo man nicht draufklicken braucht.

    Ja, so mach ich das auch, die Nextcloud lädt sich den Plunder runter und ich lese dann das Zeug, bzw 90% werden sowieso gleich als gelesen markiert. Da merkt man auch erst mal, warum Qualitätsjournalismus Geld kostet. Viele Artikel sind beinahe wortgleich in mehreren Feeds, das kommt dann wohl von irgendwelchen Agenturen. Insbesondere ARD und ZDF, so sehr ich sie schätze, haben zu vielen Themen mehr oder minder die gleichen Beiträge. Nuja, werden ja auch aus der gleichen Gebühr bezahlt :D;(. Also mich nerven grundsätzlich am meisten die RSS-Beiträge, die eigentlich nur aus einem verlinkten Video bestehen. Genau wegen solchen Beiträgen braucht man dringend RSS :rolleyes:.