Re: Backup und Archivierung

2023-12-31 Diskussionsfäden Sascha Effert
Hi,

kleine Richtigstellung: meine Nextcloudinstanzen sind nachts 45 Minuten 
offline. Hab gerade nochmal nachgesehen...

Liebe Grüße
Sascha

30.12.2023 10:20:42 Sascha Effert :

> Hi,
> 
> Auf meinem Server findet das Backup in drei Stufen statt. Zuerst werden von 
> den Datenbanken Backups in meine Datenpartition erstellt. Dabei werden auch 
> Konfigdateien dorthin gesichert und was sonst noch so wichtig ist.
> 
> Als nächsten erzeuge ich mit rsync ein Backup mit Hardlinks für identische 
> Dateien.
> 
> Im dritten Schritt sichere ich das mit rsync erzeugt Backup mit borbackup 
> dedupliziert und verschlüsselt auf einem anderen Rechner.
> 
> Mein Backupvolumen beträgt ungefähr 1 TB. Meine auf dem Server laufenden 
> Nextcloud Instanzen sind während der ersten beiden Schritte offline, da mein 
> Server (vServer bei Strato) mir leider keine Snapshots ermöglicht. Dadurch 
> sind die Server jede Nacht ca. 15 Minuten offline. Borgbackup braucht dann 
> ca. 8 Stunden für das Backup, stört aber nicht beim Betrieb des Servers.
> 
> Mein Notebook sichere ich nicht, alles wichtige wir in die Nextcloud oder in 
> git gesichert.
> 
> Bei Bedarf stelle ich meine Skripte gern zur Verfügung, die sind aber 
> trivial...
> 
> Liebe Grüße
> Sascha
> 
> 29.12.2023 20:55:33 Cord Beermann :
> 
>> Hallo,
>> 
>> da meine aktuellen Methoden Backups (von Servern) und Archivierung (von
>> Dokumenten und Emails) mittlerweile sehr sperrig (sowohl vom Platzbedarf, als
>> auch vom Handling) geworden sind möchte ich mich bei Euch erkundigen
>> wie Ihr diese Probleme löst:
>> 
>> * Dokumente:
>>   ich experimentiere gerade mit Paperless-ngx.com
>> 
>> * Fotos und Musik
>>   rsync auf andere Platten
>> 
>> * Emails:
>>   verschiedene teilweise vielfache Sicherung von mbox-Dateien, das muss
>>   doch besser gehen?
>> 
>> * Systembackups: 
>>   rsnapshot per rsync. Immer wieder Probleme das diese Daten massiv wachsen
>>   weil sinnlose Daten mitgesichert werden. Eigentlich sollte es doch reichen
>>   bei Debian-systemen die Config, die veränderten Daten und eine
>>   Paketliste zu sichern?
>> 
>> * Offsite: 
>>   Bisher hin und wieder eine Sicherheitskopie auf weitere Platten.  Ich habe
>>   1TByte bei rsync.net zur Verfügung, da würde ich Daten
>>   verschlüsselt ablegen wollen.
>> 
>> * was noch?
>>   Übersehe ich etwas?
>> 
>> Cord
>> -- 
>> Linux mailing list Linux@lug-owl.de
>> subscribe/unsubscribe: https://lug-owl.de/mailman/listinfo/linux
>> Hinweise zur Nutzung: http://www.lug-owl.de/Mailingliste/hints.epo
-- 
Linux mailing list Linux@lug-owl.de
subscribe/unsubscribe: https://lug-owl.de/mailman/listinfo/linux
Hinweise zur Nutzung: http://www.lug-owl.de/Mailingliste/hints.epo


Re: IPv6 Freigabe Fritzbox

2022-01-30 Diskussionsfäden Sascha Effert
Hallo Basti und Hans-Joachim,

eine IPv6 hat omen ja, aber eine ULA (oder wie auch immer dieser selbst
ausgewürfelte Bereich heißt). Ich vermute, dass die nur nicht im
gleichen Subnetz rumdödelt wie die Fritzbox (es gibt bei IPv6 doch noch
Subnetze, oder?) und deshalb wahrscheinlich die Kommunikation mittels
IPv6 nicht klappt... Hach Mist, dass das mit dem lernen auch nie
aufhört... ;-)

Ich werde mir nochmal Gedanken machen, wie ich das für mich lösen
will... Entweder ich lasse wirklich öffentliche IPv6 Adressen durch die
Fritzbox vergeben und schalte meinen ganzen Rechner (außer dem Server)
hinter einen zweiten Router oder ich hau auf den externen Rechner
einfach einen VPN Server and verbinde den Server darüber...

Vielen Dank für die Hilfe!

Beste Grüße

Sascha


Am Sonntag, dem 30.01.2022 um 18:30 +0100 schrieb basti:
> Hi,
> 
> wenn die Adresse aus dem Internet routbar ist, dann ist sie doch 
> öffentlich erreichbar. Eine Port-Weiterleitung braucht es für IPv6
> auf 
> der FritzBox übrigens nicht, bzw. geht das mit IPv6 so nicht. IPv6
> hat 
> kein NAT!
> führt. Du kannst hier nicht die IP deines Routers als Adresse weiter 
> geben, welche dann von außen aufgerufen wird, sondern musst die
> Adresse 
> des Rechners nehmen, der erreicht werden soll. Wenn du das vermeiden 
> willst, brauchst du einen Proxy. Der muss dann seinerseits aber
> wieder 
> extern erreichbar sein. Du kannst dir also überlegen, wo hin du den 
> Angriffspunkt verschieben möchtest.
> 
> Btw. ist man mit IPv6 statistisch gesehen heute immer noch sicherer
> als 
> mit IPv4, weil die wenigsten von den bösen Buben sich mit IPv6
> befassen. 
> (Was natürlich kein Freibrief ist!)
> 
> Schöne Grüße
> 
> Basti
> 
> 
> Am 30.01.22 um 13:48 schrieb Sascha Effert:
> > Hi,
> > 
> > bevorzugt möchte ich omen keine öffentliche Zugreifbare IPv6 geben,
> > denn ich möchte die Angriffsfläche gern gering halten. Würde eine
> > nicht
> > routbare Adresse ausreichen? Eine IPv6 Adresse hat omen, aber eine
> > selbstzugewisene:
> > 
> > fermat@omen ~ ifconfig wlo1
> > wlo1: flags=4163  mtu 1500
> >  inet 192.168.135.55  netmask 255.255.255.0  broadcast
> > 192.168.135.255
> >  inet6 fd94:5163:b6bd:0:6427:82f4:3c3c:d584  prefixlen 64
> > scopeid 0x0
> >  inet6 fd94:5163:b6bd:0:45bf:8d83:ac6a:53d3  prefixlen 64
> > scopeid 0x0
> >  inet6 fd94:5163:b6bd:0:eeb0:1aa5:ffc6:9bbc  prefixlen 64
> > scopeid 0x0
> >  inet6 fd00::ec9f:5c9f:6bc3:c51  prefixlen 64  scopeid
> > 0x0
> >  inet6 fd94:5163:b6bd::4fc  prefixlen 128  scopeid
> > 0x0
> >  inet6 fd00::eaa3:a1fb:989f:b85a  prefixlen 64  scopeid
> > 0x0
> >  inet6 fe80::ad65:d524:597d:69e3  prefixlen 64  scopeid
> > 0x20
> >  inet6 fd94:5163:b6bd:0:4ec6:54cd:7acb:1fd3  prefixlen 64
> > scopeid 0x0
> >  inet6 fd94:5163:b6bd:0:bb73:ce19:8c43:8458  prefixlen 64
> > scopeid 0x0
> >  inet6 fd94:5163:b6bd:0:6971:952c:e287:8871  prefixlen 64
> > scopeid 0x0
> >  ether 00:21:6b:e4:33:ec  txqueuelen 1000  (Ethernet)
> >  RX packets 4010584  bytes 3973664408 (3.9 GB)
> >  RX errors 0  dropped 418466  overruns 0  frame 0
> >  TX packets 1368345  bytes 375886393 (375.8 MB)
> >  TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0
> > 
> > Alternativ könnte ich natürlich den DHCP Server für IPv6 in der
> > Fritzbox aktivieren, aber das würde ich sehr gern vermeiden
> > 
> > 
> > Mit freundlichen Grüßen
> > 
> > Sascha Effert
> > 
> > Am Sonntag, dem 30.01.2022 um 11:09 +0100 schrieb HaJo:
> > > Hallo,
> > > Am 30.01.22 um 09:37 schrieb Sascha Effert:
> > > > das anhängen des Bildes hat nicht geklappt, ich habe es hier
> > > > abgelegt:
> > > > https://nextcloud.drecksnetz.ddnss.de/index.php/s/Mw8jQ4rms5qYRMi
> > > 
> > > einen Proxy bauen, der die v6 Zugriffe aus dem Netz nach v4
> > > umbaut. Ich
> > > vermute, es ist einfacher, omen eine v6 Adresse zu geben, die bei
> > > einem
> > > DynDNS Provider einzutragen und dann freizugeben. Dann kannst Du
> > > der
> > > (Läuft hier so.)
> > > 
> > > Liebe Grüße
> > > -- 
> > > Hans-Joachim Hötger
> > > 
> > >    "Witze kann man nur dann aus dem Ärmel schütteln, wenn man sie
> > >  vorher hineingesteckt hat."
> > >    Rudi
> > > Carrell
> > 
> > 
> > 
> 

-

-- 
Linux mailing list Linux@lug-owl.de
subscribe/unsubscribe: https://lug-owl.de/mailman/listinfo/linux
Hinweise zur Nutzung: http://www.lug-owl.de/Mailingliste/hints.epo

Re: IPv6 Freigabe Fritzbox

2022-01-30 Diskussionsfäden Sascha Effert
Hi,

bevorzugt möchte ich omen keine öffentliche Zugreifbare IPv6 geben,
denn ich möchte die Angriffsfläche gern gering halten. Würde eine nicht
routbare Adresse ausreichen? Eine IPv6 Adresse hat omen, aber eine
selbstzugewisene:

fermat@omen ~ ifconfig wlo1
wlo1: flags=4163  mtu 1500
inet 192.168.135.55  netmask 255.255.255.0  broadcast
192.168.135.255
inet6 fd94:5163:b6bd:0:6427:82f4:3c3c:d584  prefixlen 64 
scopeid 0x0
inet6 fd94:5163:b6bd:0:45bf:8d83:ac6a:53d3  prefixlen 64 
scopeid 0x0
inet6 fd94:5163:b6bd:0:eeb0:1aa5:ffc6:9bbc  prefixlen 64 
scopeid 0x0
inet6 fd00::ec9f:5c9f:6bc3:c51  prefixlen 64  scopeid
0x0
inet6 fd94:5163:b6bd::4fc  prefixlen 128  scopeid 0x0
inet6 fd00::eaa3:a1fb:989f:b85a  prefixlen 64  scopeid
0x0
inet6 fe80::ad65:d524:597d:69e3  prefixlen 64  scopeid
0x20
inet6 fd94:5163:b6bd:0:4ec6:54cd:7acb:1fd3  prefixlen 64 
scopeid 0x0
inet6 fd94:5163:b6bd:0:bb73:ce19:8c43:8458  prefixlen 64 
scopeid 0x0
inet6 fd94:5163:b6bd:0:6971:952c:e287:8871  prefixlen 64 
scopeid 0x0
ether 00:21:6b:e4:33:ec  txqueuelen 1000  (Ethernet)
RX packets 4010584  bytes 3973664408 (3.9 GB)
RX errors 0  dropped 418466  overruns 0  frame 0
TX packets 1368345  bytes 375886393 (375.8 MB)
TX errors 0  dropped 0 overruns 0  carrier 0  collisions 0

Alternativ könnte ich natürlich den DHCP Server für IPv6 in der
Fritzbox aktivieren, aber das würde ich sehr gern vermeiden


Mit freundlichen Grüßen

Sascha Effert

Am Sonntag, dem 30.01.2022 um 11:09 +0100 schrieb HaJo:
> Hallo,
> Am 30.01.22 um 09:37 schrieb Sascha Effert:
> > das anhängen des Bildes hat nicht geklappt, ich habe es hier
> > abgelegt:
> > https://nextcloud.drecksnetz.ddnss.de/index.php/s/Mw8jQ4rms5qYRMi
> 
> einen Proxy bauen, der die v6 Zugriffe aus dem Netz nach v4 umbaut. Ich
> vermute, es ist einfacher, omen eine v6 Adresse zu geben, die bei einem
> DynDNS Provider einzutragen und dann freizugeben. Dann kannst Du der 
> (Läuft hier so.)
> 
> Liebe Grüße
> -- 
> Hans-Joachim Hötger
> 
>   "Witze kann man nur dann aus dem Ärmel schütteln, wenn man sie
>     vorher hineingesteckt hat."
>   Rudi Carrell



-- 
Linux mailing list Linux@lug-owl.de
subscribe/unsubscribe: https://lug-owl.de/mailman/listinfo/linux
Hinweise zur Nutzung: http://www.lug-owl.de/Mailingliste/hints.epo

Re: IPv6 Freigabe Fritzbox

2022-01-30 Diskussionsfäden Sascha Effert
Hi,

das anhängen des Bildes hat nicht geklappt, ich habe es hier abgelegt:
https://nextcloud.drecksnetz.ddnss.de/index.php/s/Mw8jQ4rms5qYRMi

Am Samstag, dem 29.01.2022 um 18:53 +0100 schrieb Sascha Effert:
> Hallo,
> 
> ich brauche mal wieder Hilfe
> 
> Ich habe hier in meinem Netzwerk einen kleinen Server mit Nextcloud,
> den ich für mich und einige Freunde betreibe. Momentan geht dieser über
> meinen DSL-Zugang online, ich habe darauf noch eine öffentlich
> zugänglich IPv4. In meinem internen Netzwerk verwende ich eigentlich
> nur IPv4.
> 
> Ich habe mittlerweile einen zweiten Internetzugang über Deutsche
> Glasfaser. Dort erhalte ich keine öffentliche IPv4, daher will ich
> meinen Rechner per IPv6 erreichbar machen. Dazu habe ich in der
> Fritzbox auf dem Router eine Weiterleitung erstellt (zum testen erst
> mal zu meinem Notebook). Ich habe auf Port 8080 eine http Server
> gestartet, den ich intern auch von anderen Rechnern erreichen kann.
> Danach habe ich eine Freigabe in der Fritzbox für den
> Glasfaseranschluss erstellt, die den Port 8080 von außen zu meinem
> Notebook durchleiten soll (siehe angehängten Screen, es handelt sich um
> das Gerät omen).
> 
> Jetzt habe ich versucht auf dem Port von einem anderen Rechner im
> Internet (außerhalt meines Netzwerks) per IPv6 zuzugreifen, leider ohne
> Erfolg:
> 
> root@localhost:~# curl -g -6 'http://[:::::]:8080/'
> curl: (7) Failed to connect to ::::: port 8080:
> Permission denied
> root@localhost:~#
> 
> Ich habe es auch mit curl versucht, gleiches Ergebnis. Der externe
> Rechner hat ist auch per IPv6 ans Internetnet angebunden (und hat
> zusätlich eine öffentliche IPv4, er soll später per 6tunnel die
> Nextloud im Internet per IPv4 erreichbar machen).
> 
> Hat jemand von Euch eine Idee, wo das Problem liegt?
> 
> 
> Mit freundlichen Grüßen
> 
> Sascha Effert
> 

Mit freundlichen Grüßen

Sascha Effert

-- 
Linux mailing list Linux@lug-owl.de
subscribe/unsubscribe: https://lug-owl.de/mailman/listinfo/linux
Hinweise zur Nutzung: http://www.lug-owl.de/Mailingliste/hints.epo

IPv6 Freigabe Fritzbox

2022-01-29 Diskussionsfäden Sascha Effert
Hallo,

ich brauche mal wieder Hilfe

Ich habe hier in meinem Netzwerk einen kleinen Server mit Nextcloud,
den ich für mich und einige Freunde betreibe. Momentan geht dieser über
meinen DSL-Zugang online, ich habe darauf noch eine öffentlich
zugänglich IPv4. In meinem internen Netzwerk verwende ich eigentlich
nur IPv4.

Ich habe mittlerweile einen zweiten Internetzugang über Deutsche
Glasfaser. Dort erhalte ich keine öffentliche IPv4, daher will ich
meinen Rechner per IPv6 erreichbar machen. Dazu habe ich in der
Fritzbox auf dem Router eine Weiterleitung erstellt (zum testen erst
mal zu meinem Notebook). Ich habe auf Port 8080 eine http Server
gestartet, den ich intern auch von anderen Rechnern erreichen kann.
Danach habe ich eine Freigabe in der Fritzbox für den
Glasfaseranschluss erstellt, die den Port 8080 von außen zu meinem
Notebook durchleiten soll (siehe angehängten Screen, es handelt sich um
das Gerät omen).

Jetzt habe ich versucht auf dem Port von einem anderen Rechner im
Internet (außerhalt meines Netzwerks) per IPv6 zuzugreifen, leider ohne
Erfolg:

root@localhost:~# curl -g -6 'http://[:::::]:8080/'
curl: (7) Failed to connect to ::::: port 8080:
Permission denied
root@localhost:~#

Ich habe es auch mit curl versucht, gleiches Ergebnis. Der externe
Rechner hat ist auch per IPv6 ans Internetnet angebunden (und hat
zusätlich eine öffentliche IPv4, er soll später per 6tunnel die
Nextloud im Internet per IPv4 erreichbar machen).

Hat jemand von Euch eine Idee, wo das Problem liegt?


Mit freundlichen Grüßen

Sascha Effert

-- 
Linux mailing list Linux@lug-owl.de
subscribe/unsubscribe: https://lug-owl.de/mailman/listinfo/linux
Hinweise zur Nutzung: http://www.lug-owl.de/Mailingliste/hints.epo

Re: IPv6/IPv4 Bridge

2020-12-15 Diskussionsfäden Dr. Sascha Effert
Hi,

ich denke, ich hab eine noch einfachere Variante gefunden: Ich hab mir einen 
VPN Provider gesucht, der mir eine öffentliche IPv4 bietet. Letsencrypt geht eh 
gegen den DNS, im internen Netz löse ich zur internen IP auf. Damit müsste das 
gegessen sein. Ich werde das am WE mal ausprobieren.


tschau

Sascha

15.12.2020 22:53:36 Florian Lohoff :

> On Tue, Dec 15, 2020 at 12:31:29PM +0100, Pierre Bernhardt wrote:
>> Am 05.12.20 um 06:15 schrieb Sascha Effert:
>>> Hallo,
>>> Oder bin ich auf dem ganz falschen Weg? Kann ich das irgendwie besser
>>> lösen?Hallo,
>> 
>> also Apache halte ich dafür völlig überzogen. Da gibt es sicherlich
>> einfachere Möglichkeiten als z.B. ein redirect. Das würde schon mit
>> einer statischen Seite gehen.
> 
> Der redirect hilft dir nicht wer der orignal browser nur v4 connectivity
> hat aber dann nach dem redirect auf eine v6 resource zugreifen muss.
> 
> Eine art proxy, apache, nginx, squid, varnish oder einfach nur einen
> nc in der inetd.conf wirst du brauchen.
> 
>> Aber man könnte auch einfach ein S/D-Forwarding auf Protokollebene
>> einrichten und alles von der IPV4 auf die IPV6 durch reichen.
>> Der Server steht dann hinter dem Rechner aus dem Internet. Wenn Du
>> dann da noch eine FW aufsetzt hast Du noch ein wenig mehr Sicherheit
>> drin. Da der Server sich dann hinter der IPV4 verbirgt sollte es
>> eigentlich kein Problem mit dem Zertifikat geben. Nur sollte es
>> auf den Namen und nicht auf eine IP lauten.
>> Die IPV6 würde ich dann aber auch über den "FW-Rechner" laufen
>> lassen.
> 
> Ich würde hier auf DNS verification bei letsencrypt umsteigen. Dann
> brauchst du da keine hoola hoops zu machen. Wobei wenn du den
> proxy baust ist es auch egal.
> 
> Ich würde auch die einfache variante mit apache mod_proxy nehmen.
> 
> Flo
> -- 
> Florian Lohoff f...@zz.de
>     UTF-8 Test: The 🐈 ran after a 🐁, but the 🐁 ran away
-- 
Linux mailing list Linux@lug-owl.de
subscribe/unsubscribe: https://lug-owl.de/mailman/listinfo/linux
Hinweise zur Nutzung: http://www.lug-owl.de/Mailingliste/hints.epo

IPv6/IPv4 Bridge

2020-12-04 Diskussionsfäden Sascha Effert
Hallo,

ich betreibe zu Hause eine Netxtcloud Instanz, die ich auch von
unterwegs aus dem Internet nutze. Da ich derzeit von meinem Provider
noch eine öffentliche IPv4 Adresse bekomme, ist das recht problemfrei.

Leider wird sich das in ein paar Monaten ändern. Ich hänge dann an
einem DualStack mit einer öffentlichen IPv6 Adresse und einer privaten
IPv4. Ich möchte aber, dass meine Nextcloud Instanz weiterhin im
Internet per IPv4 erreichbar ist.

Ich würde mir jetzt gern auf einem externen Server mit einer
öffentlichen IPv4 einen Service einrichten, der als Bridge zwischen dem
IPv4 Netzwerk und meinem IPv6 Service dient. Hat jemand eine Idee, wie
ich das machen kann? Kann ich einfach einen apache aufsetzen, der die
Daten per IPv6 zu meinem Server weiterleitet (und zurück)? Muss ich mit
Problemen bei den Netzwerkzertifikaten rechnen?

Mein naiver Gedanke: Ich setze den Apache so auf, dass er den Trafik
weiterleitet. Ich benutze ddnss.de um eine DNS Adresse zu erhalten.
Hier würde ich die IPv4 des Servers im Internet und die IPv6 meines
Servers zu Hause eintragen. Damit müsste das laufen, oder?

Etwas schwierig ist jetzt der Umgang mit letsencrypt für mich. Zu Hause
habe ich ja auch ein (privates) IPv4 Netzwerk, aus dem meine Netzcloud
erreichbar sein soll. Dabei würde ich ungern jedesmal über den externen
Server gehen. Aktuell habe ich deshalb in meinem lokalen DNS Server die
dynamische DNS Adresse mit der lokalen Adresse des Servers
überschrieben. Das könnte aber in Zukunft ein Problem mit den
Zertifikaten geben. Ich glaube, ich müsste mir die Zertifikate von dem
externen Service auf meinen internen Server kopieren, damit das
weiterhin klappt (also die öffentlichen und privaten). Sehe ich das
richtig?

Oder bin ich auf dem ganz falschen Weg? Kann ich das irgendwie besser
lösen?

tschau

Sascha

-- 
Linux mailing list Linux@lug-owl.de
subscribe/unsubscribe: https://lug-owl.de/mailman/listinfo/linux
Hinweise zur Nutzung: http://www.lug-owl.de/Mailingliste/hints.epo

Re: SD Karte für Raspi bootet nicht

2020-11-29 Diskussionsfäden Dr. Sascha Effert
Hallo,

mein Problem war gelöst, indem ich bei dd die Blocksize weggelassen habe...

Hast Du versucht den Bootloader (grub2) neu drauf zu spielen?

tschau

Sascha

29.11.2020 12:43:22 Stefan U. Hegner :

> Moin,
> 
> hab hier so'n ähnliches Thema wie Sascha letzte Woche (@Sascha: Hast Du
> es hinbekommen?):
> 
> Ich habe ein SD-Karte mir raspbian. Eine Boot-Partition (nicht /boot,
> sondern die Bootloader in der FAT Partition), eine Root-Partition (ext4)
> und eine Daten-Partition (ext4).
> 
> Das Ding will nicht mehr booten.
> 
> Ich habe
> 
> - den MBR restauriert (mal mit Pargon Disk-Manger, mal mit testdisk)
> 
> - die Boot-Partition aktiviert
> 
> - alles ge-fsck-ed
> 
> ... leider finde ich im Netz nur Anleitungen, wie man .img Dateien
> installiert o.ä. aber nichts wie ich die SD wieder bootbar mache.
> 
> Die Daten von den Partitionen sind gesichert, so dass ich die SD auch
> komplett platt machen könnte. ... Aber wenn MBR, Partition aktivieren
> und Daten reinschreiben nicht reicht, glaub ich nicht, dass mich das
> groß weiter bringt.
> 
> Habe ich was Wesentliches übersehen, oder tickt der Raspy irgendwie
> "besonders" ...?
> 
> Danke & Gruß
> 
> Stefan.
> 
> -- 
> Stefan U. Hegner
>  
>   * * *
> D-32584 Löhne --- good ole Germany
> internet: http://www.hegner-web.de
>   * * *
> GPG-Key | 048D 7F64 0BEB 73B1 2725
> F-Print | C05E 4F77 9674 EF11 55FE
-- 
Linux mailing list Linux@lug-owl.de
subscribe/unsubscribe: https://lug-owl.de/mailman/listinfo/linux
Hinweise zur Nutzung: http://www.lug-owl.de/Mailingliste/hints.epo

Re: Boten von kopierter SD Karte

2020-11-17 Diskussionsfäden Dr. Sascha Effert
Hallo Basti,

ich glaube nicht, dass die Karte durch ist. Der Server rennt mit der Karte 
schon seit über einer Woche wieder. Übrigens behautet smartctl, dass er Daten 
für die SD auslesen kann, und die sehen auch gut aus. Aber den Daten traue ich 
irgendwie nicht. Hab nie gehört, dass SD-Karten SMART unterstützen...

Ich probiere dd ohne bs morgen mal aus. Aber eigentlich dachte ich, dass man 
bei einer SD nur was kaput machen kann, wenn die BS zu klein ist.

tschau

Sascha

17.11.2020 19:02:09 basti :

> Hallo Sascha,
> 
> zwei Dinge fallen mir spontan ein, die hier problematisch sein könnten.
> 1. Evtl war die original SD-Karte schon nahe dem Lebensende und fängt
> jetzt an falsche Daten aus zu geben, wenn man sie stark belastet (dd).
> Das wollen wir nicht hoffen.
> 2. Insbesondere bei SD-Karten kann man sich mit der Block-Size böse aufs
> Maul legen. Weil Standards nämlich immer toll sind, wenn sich andere
> daran halten. Versuch mal ob es besser klappt, wenn du (in beiden
> Fällen) den "bs" Parameter weg lässt. Dauert gegebenenfalls etwas
> länger, kann aber evtl schon helfen.
> 
> Schöne Grüße
> 
> Basti
> 
> 
> Am 17.11.20 um 18:50 schrieb Sascha Effert:
>> Hallo,
>> 
>> mein Server bootet von einer SD-Karte. Jetzt hatte ich mir gedacht,
>> dass ich die ja mal vorsichthalber austauschen könnte, nachdem der
>> Rechner jetzt seit einigen Jahren damit rennt. Ich hab den Server also
>> ausgeschaltet und auf einem anderen Rechner mit dd ein Image von der SD
>> Karte erstellt:
>> 
>> dd if=/dev/sdb of=server_sd.img bs=4M
>> 
>> Danach habe ich eine andere SD eingelegt und das Image zurück gespielt:
>> 
>> dd if=server_sd.img of=/dev/sdb bs=4M
>> 
>> Ich konnte die Partitionen auf der neuen SD auch einbinden, sah soweit
>> alles gut aus. Aber der Server hat mir dennoch das booten verweigert.
>> Er hat behauptet, dass ich kein bootfähiges Device hätte. Hat jemand
>> einen Plan, was ich übersehen haben könnte?
>> 
>> tschau
>> 
>> Sascha
>> 
> 
> -- 
> Linux mailing list Linux@lug-owl.de
> subscribe/unsubscribe: https://lug-owl.de/mailman/listinfo/linux
> Hinweise zur Nutzung: http://www.lug-owl.de/Mailingliste/hints.epo
-- 
Linux mailing list Linux@lug-owl.de
subscribe/unsubscribe: https://lug-owl.de/mailman/listinfo/linux
Hinweise zur Nutzung: http://www.lug-owl.de/Mailingliste/hints.epo

Re: Boten von kopierter SD Karte

2020-11-17 Diskussionsfäden Dr. Sascha Effert
Hallo,

ja, sie sind gleich groß, sogar exakt der gleiche Typ (SanDisk irgendwas 32GB, 
das irgendwas ist bei beiden identisch).

tschau

Sascha

17.11.2020 21:39:29 Florian Lohoff :

> On Tue, Nov 17, 2020 at 06:50:20PM +0100, Sascha Effert wrote:
>> Hallo,
>> 
>> mein Server bootet von einer SD-Karte. Jetzt hatte ich mir gedacht,
>> dass ich die ja mal vorsichthalber austauschen könnte, nachdem der
>> Rechner jetzt seit einigen Jahren damit rennt. Ich hab den Server also
>> ausgeschaltet und auf einem anderen Rechner mit dd ein Image von der SD
>> Karte erstellt:
>> 
>> dd if=/dev/sdb of=server_sd.img bs=4M
>> 
>> Danach habe ich eine andere SD eingelegt und das Image zurück gespielt:
>> 
>> dd if=server_sd.img of=/dev/sdb bs=4M
>> 
>> Ich konnte die Partitionen auf der neuen SD auch einbinden, sah soweit
>> alles gut aus. Aber der Server hat mir dennoch das booten verweigert.
>> Er hat behauptet, dass ich kein bootfähiges Device hätte. Hat jemand
>> einen Plan, was ich übersehen haben könnte?
> 
> Sind SD Karte alt und neu exakt gleich groß? Ggfs ein MSDOS Partition
> table vs GPT Thema?
> 
> Bootest du mit UEFI?
> 
> Flo
> -- 
> Florian Lohoff f...@zz.de
>     UTF-8 Test: The 🐈 ran after a 🐁, but the 🐁 ran away
-- 
Linux mailing list Linux@lug-owl.de
subscribe/unsubscribe: https://lug-owl.de/mailman/listinfo/linux
Hinweise zur Nutzung: http://www.lug-owl.de/Mailingliste/hints.epo

Boten von kopierter SD Karte

2020-11-17 Diskussionsfäden Sascha Effert
Hallo,

mein Server bootet von einer SD-Karte. Jetzt hatte ich mir gedacht,
dass ich die ja mal vorsichthalber austauschen könnte, nachdem der
Rechner jetzt seit einigen Jahren damit rennt. Ich hab den Server also
ausgeschaltet und auf einem anderen Rechner mit dd ein Image von der SD
Karte erstellt:

dd if=/dev/sdb of=server_sd.img bs=4M

Danach habe ich eine andere SD eingelegt und das Image zurück gespielt:

dd if=server_sd.img of=/dev/sdb bs=4M

Ich konnte die Partitionen auf der neuen SD auch einbinden, sah soweit
alles gut aus. Aber der Server hat mir dennoch das booten verweigert.
Er hat behauptet, dass ich kein bootfähiges Device hätte. Hat jemand
einen Plan, was ich übersehen haben könnte?

tschau

Sascha

-- 
Linux mailing list Linux@lug-owl.de
subscribe/unsubscribe: https://lug-owl.de/mailman/listinfo/linux
Hinweise zur Nutzung: http://www.lug-owl.de/Mailingliste/hints.epo

Re: smartd schmeißt Fehler seit Ubuntu 20.04

2020-10-23 Diskussionsfäden Sascha Effert
Hallo,

ich konnte das Problem mit Hilfe der smartmontools Mailing Liste lösen.
Das Problem scheint zu sein, dass einige USB Controller Fehler zurück
geben, wenn die Platten in den Standby gehen. Wenn man die Tests nicht
durchführen möchte, wenn die Platte im Standby ist, so muss man "-n
standy" als Option in die smartd.conf mit aufnehmen.

Vielleicht steht ja jemand anderes auch mal vor dem Problem...

tschau

Sascha


Am Freitag, den 16.10.2020, 05:09 +0200 schrieb Sascha Effert:
> Hallo,
> 
> ich habe meinen Server letztes Wochende von Ubuntu 18.04 auf Ubuntu
> 20.04 aktualisiert. Seit dem bekomme ich folgende Nachrichten von
> smartd:
> 
> 
>  * Device: /dev/sda [SAT], failed to read SMART Attribute Data
>  * Device: /dev/sda [SAT], Read SMART Self-Test Log Failed
> 
> 
> Dies passiert exeakt seit dem Update auf Ubuntu 20.04, vorher habe
> ich
> für die Festplatte keinen Fehler erhalten. Jetzt bekomme ich alle 90
> Minuten je eine Mail mit einer der beiden Zeilen. In der smartd.conf
> habe ich folgendes eingetragen:
> 
> 
>/dev/sda -H -l error -l selftest -f -s
>(O/../../5/11|L/../../5/13|C/../../5/15) -m root -M exec
>/usr/share/smartmontools/smartd-runner
> 
> Als Device Info steht in jeder der Mails:
> 
>Device info:
>WDC WD120EDAZ-11F3RA0, S/N:8CKEU1YE, WWN:5-000cca-26ff08d6b,
>FW:81.00A81, 12.0 TB
> 
> Das ist auch richtig erkannt. Die WDC WD120EDAZ-11F3RA0 ist eine 12
> TB
> Western Digital MyBook, also eine USB Festplatte.
> 
> Wenn ich mit smartctl einen Kurztest starte, dann ist alles in
> Ordnung.
> Ich habe auch einen long test gestartet. Der sollte eigentlich fast
> 22
> Stunden dauern (1298 minutes recommended polling time), aber als ich
> ca. eine Stunde nach dem Start nachgesehen habe, war er aber schon
> fertig (Self-test execution status: (   0)). smartctl zeigt mir jetzt
> folgendes:
> 
>➜  root@drecksserver ~ smartctl -l selftest /dev/sda 
>smartctl 7.1 2019-12-30 r5022 [x86_64-linux-5.4.0-48-generic]
> (local
>build)
>Copyright (C) 2002-19, Bruce Allen, Christian Franke, 
>www.smartmontools.org
> 
> === START OF READ SMART DATA SECTION ===
> SMART Self-test log structure revision number 1
> Num  Test_DescriptionStatus  Remaining  LifeTime
> (hours)  LBA_of_first_error
> # 1  Extended offlineAborted by
> host   90%   412 -
> # 2  Extended offlineAborted by
> host   90%   330 -
> # 3  Short offline   Completed without
> error   00%   329 -
> ➜  root@drecksserver ~
> 
> Während des Long tests hatte ich vorher /dev/sda in der smartd.conf
> auskommentiert, weil ich mir nicht sicher war ob der smartd dem
> Laufenden Test in die Quere kommen könnte (z.B. indem smartd im
> falschen Moment einen Test starten will). Danach habe ich die Platte
> wieder in smartd aufgenommen und habe wieder die Fehler erhalten, wie
> zuvor.
> 
> Hat von Euch wer eine Ahnung, was da schief gehen könnte? Alternativ
> würde mir auch ein Weg helfen, wie ich diesen spezifischen Fehler
> nicht
> mehr erhalte, ohne die Platte gleich ganz aus der smartd.conf zu
> entfernen. Die man page und google haben mir nicht geholfen...
> 
> tschau
> 
> Sascha
> 

-- 
Linux mailing list Linux@lug-owl.de
subscribe/unsubscribe: https://lug-owl.de/mailman/listinfo/linux
Hinweise zur Nutzung: http://www.lug-owl.de/Mailingliste/hints.epo

smartd schmeißt Fehler seit Ubuntu 20.04

2020-10-15 Diskussionsfäden Sascha Effert
Hallo,

ich habe meinen Server letztes Wochende von Ubuntu 18.04 auf Ubuntu
20.04 aktualisiert. Seit dem bekomme ich folgende Nachrichten von
smartd:


 * Device: /dev/sda [SAT], failed to read SMART Attribute Data
 * Device: /dev/sda [SAT], Read SMART Self-Test Log Failed


Dies passiert exeakt seit dem Update auf Ubuntu 20.04, vorher habe ich
für die Festplatte keinen Fehler erhalten. Jetzt bekomme ich alle 90
Minuten je eine Mail mit einer der beiden Zeilen. In der smartd.conf
habe ich folgendes eingetragen:


   /dev/sda -H -l error -l selftest -f -s
   (O/../../5/11|L/../../5/13|C/../../5/15) -m root -M exec
   /usr/share/smartmontools/smartd-runner

Als Device Info steht in jeder der Mails:

   Device info:
   WDC WD120EDAZ-11F3RA0, S/N:8CKEU1YE, WWN:5-000cca-26ff08d6b,
   FW:81.00A81, 12.0 TB

Das ist auch richtig erkannt. Die WDC WD120EDAZ-11F3RA0 ist eine 12 TB
Western Digital MyBook, also eine USB Festplatte.

Wenn ich mit smartctl einen Kurztest starte, dann ist alles in Ordnung.
Ich habe auch einen long test gestartet. Der sollte eigentlich fast 22
Stunden dauern (1298 minutes recommended polling time), aber als ich
ca. eine Stunde nach dem Start nachgesehen habe, war er aber schon
fertig (Self-test execution status: (   0)). smartctl zeigt mir jetzt
folgendes:

   ➜  root@drecksserver ~ smartctl -l selftest /dev/sda 
   smartctl 7.1 2019-12-30 r5022 [x86_64-linux-5.4.0-48-generic] (local
   build)
   Copyright (C) 2002-19, Bruce Allen, Christian Franke, 
   www.smartmontools.org

=== START OF READ SMART DATA SECTION ===
SMART Self-test log structure revision number 1
Num  Test_DescriptionStatus  Remaining  LifeTime
(hours)  LBA_of_first_error
# 1  Extended offlineAborted by
host   90%   412 -
# 2  Extended offlineAborted by
host   90%   330 -
# 3  Short offline   Completed without
error   00%   329 -
➜  root@drecksserver ~

Während des Long tests hatte ich vorher /dev/sda in der smartd.conf
auskommentiert, weil ich mir nicht sicher war ob der smartd dem
Laufenden Test in die Quere kommen könnte (z.B. indem smartd im
falschen Moment einen Test starten will). Danach habe ich die Platte
wieder in smartd aufgenommen und habe wieder die Fehler erhalten, wie
zuvor.

Hat von Euch wer eine Ahnung, was da schief gehen könnte? Alternativ
würde mir auch ein Weg helfen, wie ich diesen spezifischen Fehler nicht
mehr erhalte, ohne die Platte gleich ganz aus der smartd.conf zu
entfernen. Die man page und google haben mir nicht geholfen...

tschau

Sascha

-- 
Linux mailing list Linux@lug-owl.de
subscribe/unsubscribe: https://lug-owl.de/mailman/listinfo/linux
Hinweise zur Nutzung: http://www.lug-owl.de/Mailingliste/hints.epo

Re: Backup meines Servers

2020-04-09 Diskussionsfäden Sascha Effert
Hallo,

ich hab mir restic angesehen. Die Ähnlichkeiten zu borg kommen nicht
von ungefähr, Borg ist ein Fork von Restic. Da scheint es in der
Vergangenheit viele Probleme gegeben zu haben, weil nur sehr wenige
Maintainer schreibrechte auf den Master haben und sich Pull Request
dadurch über Wochen hingezogen haben. Das betraf anscheinend auch viele
Security fixes und andere Fehlerkorrekturen. Deshalb habe ich davon
abstand genommen.

Der Verlust durch sshfs kann so groß nicht sein, wenn ich sehe was da
über die Leitung geht. Ich schaffe es das Laufwerk mit knapp über 6
MByte/s zu beschreiben. Viel mehr läßt sich aus meinen 50 MBit/s nicht
rausholen. Beim zurückholen der Daten komme "nur" auf 14 MByte/s (1000
MBit/s downstream), aber damit kann ich leben. Dafür habe ich das
Gefühl, ein verlässliches Gesamtsystem zu haben.

Ich mache übrigends zusätzlich noch ein Backup auf eine lokale
Festplatte. Das habe ich bereits vorher gemacht. Dazu verwende ich aber
einfach rsync mit Hardlinks. An der Stelle ist es mir am wichtigsten,
dass ich ohne irgendwelche Tools auf das Backup zugreifen kann. Das
Backup bleibt bei mir auch bestehen, weil das meine einzige
Komplettsicherung ist. Zu strato sichere ich nur ca. 500 GB meiner 4 TB
im Server.

Ich habe die Sicherung heute noch etwas abgeändert, indem ich jedesmal
ein Snapshot meines Datenlaufwerks erstelle, von dem dann das Backup
gezogen wird. Hat zum einen den Vorteil, dass die Daten ro sind (was ja
schon die docker container für mich gelöst hatten), sorgt zum anderen
aber auch für mehr Konsistenz. Zumindest die ersten Backupläufe haben
ja schon ein paar Stunden in Anspruch genommen.

Meine docker images sichere ich übrigends nicht. Dafür betreibt docker
so eine schöne registry... :-)

Das Aufsetzen inklusive Scripte schreiben, die mir eine zuverlässige
Überwachung ermöglichen, hat mich jetzt doch insgesamt fast drei
komplette Arbeitstage gekostet... Naja, Corona sei Dank hab ich ja
endlich mal Zeit, mich um sowas zu kümmern...

tschau


Sascha

Am Donnerstag, den 09.04.2020, 17:47 +0200 schrieb Florian Lohoff:
> On Thu, Apr 09, 2020 at 08:44:34AM +0200, Sascha Effert wrote:
> > Hallo Florian,
> > 
> > vielen Dank für den Tipp. nach ein wenig hin und her bin ich Deinem
> > Rat
> > gefolgt. Ich verwende jetzt Borg Backup. Ich habe es in einem
> > docker
> > container auf meinem Server laufen, so kann ich den Zugriff auf
> > meine
> > Dateien auf ro einschränken (man weiß ja nie). Die Sicherung
> > erfolgt
> > mittels sshfs zu strato.
> 
> Dann solltest du dir im vergleich nochmal restic ansehen. sshfs ist
> meist ein echter performance killer. restic sollte direkt
> ssh können IIRC. Ansonsten scheint restic sehr borg ähnlich zu sein.
> 
> > * Speicherverbrauch: Ich hätte nicht gedacht, dass es ein
> > relevantes
> > Potential für Kompression und deduplikation bei mir gibt (der mit
> > Abstand größte Teil der Daten sind Fotos im jpg Format), dennoch
> > scheint da einiges zu gehen.
> 
> Ich bastel viel mit docker zeugs rum - nicht produktiv aber um meine
> Entwicklung zu kapseln. Alleine die Docker container haben ja 37 mal
> dieselber datei irgendwo liegen. Dedupliziert natürlich auf nix
> runter.
> 
> > * Inkrementelle Sicherung: Alway inkrementell schein wirklich zu
> > funktionieren. Ich habe nach der zweiten Sicherung einfach mal die
> > erste entfernt. War bein Problem.
> 
> Er guckt ja beim expire von backups nach welche objekte/blocks er
> noch braucht und löscht nur die die wirklich nicht mehr referenziert
> werden.
> 
> > Kurz und knapp: Cooles Zeug. Du hattest definitiv recht: Ich wollte
> > borgbackup. :-)
> 
> Restic scheint konzeptionell sehr ähnlich zu sein - hat nur mehr
> backends um das zeugs irgendwo abzulegen.
> 
> Konzeptionell würde borg unterstützen das mehrere clients/systeme
> parallel in DASSELBE repo schreiben. Deshalb haben die nicht so viele
> backends.
> 
> Flo

-- 
Linux mailing list Linux@lug-owl.de
subscribe/unsubscribe: https://lug-owl.de/mailman/listinfo/linux
Hinweise zur Nutzung: http://www.lug-owl.de/Mailingliste/hints.epo

Re: Backup meines Servers

2020-04-08 Diskussionsfäden Sascha Effert
Hallo Florian,

vielen Dank für den Tipp. nach ein wenig hin und her bin ich Deinem Rat
gefolgt. Ich verwende jetzt Borg Backup. Ich habe es in einem docker
container auf meinem Server laufen, so kann ich den Zugriff auf meine
Dateien auf ro einschränken (man weiß ja nie). Die Sicherung erfolgt
mittels sshfs zu strato.

Bisher bin ich recht begeistert:

* Geschwindigkeit: Meine 50 MBit Upload scheinen der beschränkende
Faktor zu sein.
* Speicherverbrauch: Ich hätte nicht gedacht, dass es ein relevantes
Potential für Kompression und deduplikation bei mir gibt (der mit
Abstand größte Teil der Daten sind Fotos im jpg Format), dennoch
scheint da einiges zu gehen.
* Inkrementelle Sicherung: Alway inkrementell schein wirklich zu
funktionieren. Ich habe nach der zweiten Sicherung einfach mal die
erste entfernt. War bein Problem.
* Verschlüsselung: Mit keyfile erscheint mir die Sicherung ganz gut
abgesichert zu sein, ich habe aber keinen Code audit vorgenommen... :-)
* Einfachheit: Es war recht einfach das Backup zu erstellen und ich
konnte auf einem anderen Rechner auch recht schnell Daten
wiedergewinnen. Besonders hat mich dabei die Möglichkeit überzeugt, ein
Backup direkt zu mounten. Einfacher geht es ja kaum...

Kurz und knapp: Cooles Zeug. Du hattest definitiv recht: Ich wollte
borgbackup. :-)

tschau

Sascha


Am Donnerstag, den 02.04.2020, 16:43 +0200 schrieb Florian Lohoff:
> Hola,
> 
> On Thu, Apr 02, 2020 at 12:42:39PM +0200, Sascha Effert wrote:
> > Hallo,
> > 
> > ich habe mit duplicity gerade nochmal genauer angesehen. Leider
> > scheint
> > es bei denen so zu sein, dass ich regelmäßig ein Full Backup machen
> > muss. Das ist aber leider nicht wirklich realistisch, da mein
> > Backupvolumen jetzt bereits 260 GB sind. Wenn ich die über meine 50
> > MBit Upstream hochlade, dann dauert das ca 15 Stunden (falls ich
> > zwischendurch nicht dank eines reconnects von vorne anfangen muss).
> 
> Du willst borgbackup - Alternativ für Backblaze B2 willst du 
> restic ... Ich selber mache alles mit borg gegen ssh accounts auf
> maschinen von mir selbst. Compression, Encryption, Incremental only.
> Und mit borg geht auf dem remote repo "append only" d.h. der client
> kann die backups nicht "expiren" oder "löschen".
> 
> D.h. selbst wie deine maschine geowned wird können die nicht auch
> noch
> das backup löschen. Problem dabei ist das dann die remote kiste
> selber
> sich um das expire kümmern muss.
> 
> >   * Einbundung externen Speichers mit sshfs oder SMB 
> > (durch einen VPN Tunnel), Strato bietet das an
> >   * Verschlüsselung der Daten auf dem gemounteten Speicher
> > mit encryptfs
> >   * Backup mit rsync oder rdiff-backup
> 
> Das ist EXTREM langsam das auf ein nfs/smbfs zu sichern. Es gibt auch
> lösungen so mit borg auf b2 zu sichern aber das ist super schnarchig.
> 
> > Hat bezüglich der Verschlüsseluing natürlich den Nachteil, dass man
> > die
> > Größe der Dateien sehen kann. Ich bin mir gerade auch nicht sicher,
> > ob
> > die Dateinamen verschlüsselt werden...
> 
> Es sind keine Dateinamen da die von in interesse sind weil borg und
> restic container schreiben keine Einzelfiles.
> 
> apt-get install borgbackup 
> 
> Und hier der schnelltest:
> 
> 
> flo@pax:/tmp/foo$ borg init .
> Enter new passphrase: 
> Enter same passphrase again: 
> Do you want your passphrase to be displayed for verification? [yN]: y
> Your passphrase (between double-quotes): "test"
> Make sure the passphrase displayed above is exactly what you wanted.
> 
> By default repositories initialized with this version will produce
> security
> errors if written to with an older version (up to and including Borg
> 1.0.8).
> 
> If you want to use these older versions, you can disable the check by
> runnning:
> borg upgrade --disable-tam '.'
> 
> See 
> https://borgbackup.readthedocs.io/en/stable/changes.html#pre-1-0-9-manifest-spoofing-vulnerability
> for details about the security implications.
> flo@pax:/tmp/foo$ borg create /tmp/foo::first-backup-20200402 -C lz4
> -v --stats --list /etc/passwd
> Enter passphrase for key /tmp/foo: 
> A /etc/passwd
> ---
> ---
> Archive name: first-backup-20200402
> Archive fingerprint:
> 361875ec0747be46de10ce8b40179b0b738177b1bb28a89ff5a4ee27d1b78c10
> Time (start): Thu, 2020-04-02 16:39:42
> Time (end):   Thu, 2020-04-02 16:39:42
> Duration: 0.11 seconds
> Number of files: 1
> ---
> ---
>Original size  Compressed
> sizeDeduplicated size
> This archive:  

Re: Backup meines Servers

2020-04-02 Diskussionsfäden Sascha Effert
Hallo,

ich habe mit duplicity gerade nochmal genauer angesehen. Leider scheint
es bei denen so zu sein, dass ich regelmäßig ein Full Backup machen
muss. Das ist aber leider nicht wirklich realistisch, da mein
Backupvolumen jetzt bereits 260 GB sind. Wenn ich die über meine 50
MBit Upstream hochlade, dann dauert das ca 15 Stunden (falls ich
zwischendurch nicht dank eines reconnects von vorne anfangen muss).

Meine Anforderungen:

* Always Inkrementell, aber ich kann Stände älter al X Tage löschen
* Der Datenspeicher sieht nur verschlüsselte Daten

Bisher kenne ich Tools, die entweder alway Inkrementell können (rsync,
rdiff-backup) oder verschlüsselte Datenspeicherung (duplicity, tar).
Das Problem bei duplicity ist, dass es ein Full Backup anlegt und
danach jeweils nur inkremente. Ich kann also keine alten Stände
entfernen, es sei denn ich mache ein neues Full Backup.

Bei der Wahl des Providers für meinen Backupspeicher bin ich flexibel
(Backblaze war eine Idee, kein muss). 

Hat da jemand eine Lösung parat? Kann Borg das? Ich finde dazu bisher
noch nichts.

Falls borg keine Lösung ist: Erscheint Euch folgendes als gangbarer
Weg:

  * Einbundung externen Speichers mit sshfs oder SMB 
(durch einen VPN Tunnel), Strato bietet das an
  * Verschlüsselung der Daten auf dem gemounteten Speicher
mit encryptfs
  * Backup mit rsync oder rdiff-backup

Hat bezüglich der Verschlüsseluing natürlich den Nachteil, dass man die
Größe der Dateien sehen kann. Ich bin mir gerade auch nicht sicher, ob
die Dateinamen verschlüsselt werden...

Alternativ denke ich darüber nach mit Veracrypt eine Virtuelle
verschlüsselte Platte auf dem gemounteten Speicher anzulegen...

tschau

Sascha

Am Sonntag, den 29.03.2020, 20:32 +0200 schrieb Florian Lohoff:
> On Sun, Mar 15, 2020 at 01:32:22PM +0100, Dr. Sascha Effert wrote:
> > Hi,
> > 
> > ich würde gern einige Daten auf meinem Server extern sichern. Ich
> > danke darüber nach dazu duplicati (https://www.duplicati.com/)
> > verwenden, um die Daten verschlüsselt bei backblaze
> > (https://www.backblaze.com/b2/cloud-storage.html) zu speichern. Hat
> > zufällig wer von Euch Erfahrung mit duplicati und/backblaze und
> > kann
> > mir sagen, ob die Idee was taugt? Ich meine, ich hätte hier schon
> > mal
> > von duplicati gelesen (oder war das duplicity?...)
> 
> Ich selber mache "borg" backup auf remote maschinen. Das funktioniert
> problemlos. Der kann nur das Backblaze B2 nicht.
> 
> Ich meine wenn man B2 haben will dann ist restic eine alternative.
> 
> https://restic.readthedocs.io/en/stable/030_preparing_a_new_repo.html#backblaze-b2
> 
> duplicity haben wir hier bestimmt schonmal drüber geredet, da weiss
> ich
> nicht ob das B2 als backend kann.
> 
> Zu Backblaze kann ich nichts sagen. Ich lese deren Blog seit Jahren
> und
> die machen einen soliden Eindruck.
> 
> Flo

-- 
Linux mailing list Linux@lug-owl.de
subscribe/unsubscribe: https://lug-owl.de/mailman/listinfo/linux
Hinweise zur Nutzung: http://www.lug-owl.de/Mailingliste/hints.epo

Re: Fwd: Ihre Nachricht an Linux wartet auf Bestätigung des Moderators

2020-03-19 Diskussionsfäden Sascha Effert
Hallo,

ich hab mir gerade mal die Mail als Plain Text angesehen ind sehe
folgende Header:

Date: Sun, 15 Mar 2020 13:32:22 +0100
From: "Dr. Sascha Effert" 
To: OWL LUG 
Subject: Backup meines Servers
User-Agent: K-9 Mail for Android
Message-ID: <8bb02cc5-e9e5-41c6-8e41-cf2e1d365...@douglas2a.de>
MIME-Version: 1.0
X-Evolution-Source: 461f85f552cf9746b917dba675e025872ac6b175
Content-Type: text/plain;
 charset=utf-8
Content-Transfer-Encoding: quoted-printable


Da meine zweite Anfrage durchging (diese, nach dem Grund warum die
erste nicht durchging), müsste es was damit zu tun haben, ob ich die
Nachricht mit k9 von meinem Android Handy schicke, oder mit Evolution
von meinem Notebook. Ist der User Agent ein Filterkriterium?

tschau

Sascha

Am Sonntag, den 15.03.2020, 15:26 +0100 schrieb Sascha Effert:
> Hi,
> 
> hat jemand eine Ahnung, warum meine Mail jetzt schon wieder bestätigt
> werden muss? Im Anhang auch nochmal die Nachricht, wie ich sie in
> meinem Send Ordner vorgefunden habe. Ich hatte sie mit k9 von meinem
> Android Handy verschickt...
> 
> tschau
> 
> 
> Sascha

-- 
Linux mailing list Linux@lug-owl.de
subscribe/unsubscribe: https://lug-owl.de/mailman/listinfo/linux
Hinweise zur Nutzung: http://www.lug-owl.de/Mailingliste/hints.epo

Backup meines Servers

2020-03-16 Diskussionsfäden Dr. Sascha Effert
Hi,

ich würde gern einige Daten auf meinem Server extern sichern. Ich danke darüber 
nach dazu duplicati (https://www.duplicati.com/) verwenden, um die Daten 
verschlüsselt bei backblaze (https://www.backblaze.com/b2/cloud-storage.html) 
zu speichern. Hat zufällig wer von Euch Erfahrung mit duplicati und/backblaze 
und kann mir sagen, ob die Idee was taugt? Ich meine, ich hätte hier schon mal 
von duplicati gelesen (oder war das duplicity?...)

tschau


Sascha Effert

-- 
Diese Nachricht wurde von meinem Android-Gerät mit K-9 Mail gesendet.
-- 
Linux mailing list Linux@lug-owl.de
subscribe/unsubscribe: https://lug-owl.de/mailman/listinfo/linux
Hinweise zur Nutzung: http://www.lug-owl.de/Mailingliste/hints.epo

Fwd: Ihre Nachricht an Linux wartet auf Bestätigung des Moderators

2020-03-15 Diskussionsfäden Sascha Effert
Hi,

hat jemand eine Ahnung, warum meine Mail jetzt schon wieder bestätigt
werden muss? Im Anhang auch nochmal die Nachricht, wie ich sie in
meinem Send Ordner vorgefunden habe. Ich hatte sie mit k9 von meinem
Android Handy verschickt...

tschau


Sascha
--- Begin Message ---
Ihre Mail an "Linux" mit dem Subject/Betreff

Backup meines Servers

wird zurückgehalten, bis der Listenmoderator Ihre E-Mail genehmigt.

Der Grund, weshalb eine Genehmigung erforderlich ist:

Der Header der Nachricht traf auf ein Filterkriterium aus
"bounce_matching_headers" zu.

Entweder wird Ihre E-Mail in Kürze freigegeben und über die Liste
verteilt, oder Sie erhalten eine Mitteilung über eine Ablehnung durch
den Moderator.

Sie können diese E-Mail *zurückziehen*, solange sie noch nicht
verteilt worden ist. Wenn Sie NICHT mehr verteilt werden soll,
besuchen Sie den folgenden Link:


https://lug-owl.de/mailman/confirm/linux/58bc7e1ee8ca0ea66415dc219b246d7126da1cec

--- End Message ---
--- Begin Message ---
Hi,

ich würde gern einige Daten auf meinem Server extern sichern. Ich danke darüber 
nach dazu duplicati (https://www.duplicati.com/) verwenden, um die Daten 
verschlüsselt bei backblaze (https://www.backblaze.com/b2/cloud-storage.html) 
zu speichern. Hat zufällig wer von Euch Erfahrung mit duplicati und/backblaze 
und kann mir sagen, ob die Idee was taugt? Ich meine, ich hätte hier schon mal 
von duplicati gelesen (oder war das duplicity?...)

tschau


Sascha Effert

-- 
Diese Nachricht wurde von meinem Android-Gerät mit K-9 Mail gesendet.--- End Message ---
-- 
Linux mailing list Linux@lug-owl.de
subscribe/unsubscribe: https://lug-owl.de/mailman/listinfo/linux
Hinweise zur Nutzung: http://www.lug-owl.de/Mailingliste/hints.epo

Re: Debian: Fehler nach apt-get dist-upgrade

2018-11-17 Diskussionsfäden Sascha Effert
Hi all,

hab was:

# sudo apt-get -f -o Dpkg::Options::="--force-overwrite" install

weit weg von schön, jetzt habe ich natürlich eine Inkonsistenz in der
Datenbank, aber zumindest kann ich apt wieder benutzen. Vorher ließ er
mich nämlich nichts mehr installieren oder deinstallieren...

Ich bin etwas verwundert, wie ich in so eine Fehlersituation durch ein
einfaches dist-upgrade kommen konnte. Das Package scheint aus dem
bananian repo zu stammen. Ist gerade nicht so vertrauenserweckend...

vielen Dank

Sascha

Am Samstag, den 17.11.2018, 12:39 +0100 schrieb Frank Bergmann:
> Hi,
> 
> der Fehler stand doch unten bereits:
> 
> trying to overwrite '/lib/firmware/mts_gsm.fw', which is also in
> package linux-firmware-image
> 
> Der Fehler ist also, dass diese Datei in verschiedenen Packages ist.
> Da ich kein Debian nutze, kann ich aber nicht sagen, was in welches
> Package
> gehört.
> 
> Frank
> 
> 
> On Sat, Nov 17, 2018 at 11:41:31AM +0100, Markus Wiesecke wrote:
> > Moin,
> > 
> > mein Ansatz wäre dem Update mal genauer auf die Finger zu schauen,
> > z.B. mit 
> > 
> > strace -f -e trace=file -o /tmp/strace.out apt-get -f install
> > 
> > und anschliessend sich die Zugriffe auf die Problembärendatei mit
> > 
> > cat /tmp/strace.out | grep mts_gsm.fw
> > 
> > angucken. Vielleicht wird dann klar, was genau schief läuft.
> > 
> > Gruß
> > Markus
> > 
> > PS: Ansonsten, wenn die diese Firmware nciht brauchst, ist das
> > System deshalb ja nicht kaputt :)
> > 
> >  
> > - Ursprüngliche Mail -
> > Von: "Sascha Effert" 
> > An: "Linux Usergroup OWL" 
> > Gesendet: Samstag, 17. November 2018 07:05:46
> > Betreff: Debian: Fehler nach apt-get dist-upgrade
> > 
> > Hi,
> > 
> > ich hab gerade versucht die Software auf meinem Router (Banana Pi
> > R1
> > mit debian Jessie) zu aktualiesieren:
> > 
> > # apt-get dist-upgrade
> > 
> > Dabei habe ich folgenden Fehler erhalten:
> > 
> > 
> > 
> > Unpacking firmware-misc-nonfree (20161130-4~deb8u1) ...
> > dpkg: error processing archive /var/cache/apt/archives/firmware-
> > misc-
> > nonfree_20161130-4~deb8u1_all.deb (--unpack):
> >  trying to overwrite '/lib/firmware/mts_gsm.fw', which is also in
> > package linux-firmware-image 16.04.05
> > dpkg-deb: error: subprocess paste was killed by signal (Broken
> > pipe)
> > Errors were encountered while processing:
> >  /var/cache/apt/archives/firmware-misc-nonfree_20161130-
> > ~deb8u1_all.deb
> > E: Sub-process /usr/bin/dpkg returned an error code (1)
> > 
> > 
> > 
> > Wenn ich versuche die installation zu reparieren mit
> > 
> > # apt-get -f install
> > 
> > oder wenn ich den Befehl zum update erneut aufrufe, so erhalte ich
> > den
> > gleichen Fehler.
> > 
> > Ich habe bereits versucht, die Datei /lib/firmware/mts_gsm.fw zu
> > verschieben und dann das Paket erneut zu installieren, aber der
> > Fehler
> > bleibt. In dmesg und den log Dateien finde ich keine weiteren
> > Infos.
> > Ich hab die Datei 
> > /var/cache/apt/archives/firmware-misc-nonfree_20161130-
> > ~deb8u1_all.deb
> > gelöscht und es erneut probiert. apt hat sie erneut runter geladen
> > und
> > hat mit dem gleichen Fehler geendet.
> > 
> > Ich suche jetzt nach einem Weg, wie ich das System wieder in
> > Ordnung
> > bringe, ohne den Router neu zu installieren. Kann jemand eine Idee,
> > was
> > ich machen kann?
> > 
> > tschau
> > 
> > Sascha

-- 
Linux mailing list Linux@lug-owl.de
subscribe/unsubscribe: https://lug-owl.de/mailman/listinfo/linux
Hinweise zur Nutzung: http://www.lug-owl.de/Mailingliste/hints.epo

Debian: Fehler nach apt-get dist-upgrade

2018-11-16 Diskussionsfäden Sascha Effert
Hi,

ich hab gerade versucht die Software auf meinem Router (Banana Pi R1
mit debian Jessie) zu aktualiesieren:

# apt-get dist-upgrade

Dabei habe ich folgenden Fehler erhalten:



Unpacking firmware-misc-nonfree (20161130-4~deb8u1) ...
dpkg: error processing archive /var/cache/apt/archives/firmware-misc-
nonfree_20161130-4~deb8u1_all.deb (--unpack):
 trying to overwrite '/lib/firmware/mts_gsm.fw', which is also in
package linux-firmware-image 16.04.05
dpkg-deb: error: subprocess paste was killed by signal (Broken pipe)
Errors were encountered while processing:
 /var/cache/apt/archives/firmware-misc-nonfree_20161130-~deb8u1_all.deb
E: Sub-process /usr/bin/dpkg returned an error code (1)



Wenn ich versuche die installation zu reparieren mit

# apt-get -f install

oder wenn ich den Befehl zum update erneut aufrufe, so erhalte ich den
gleichen Fehler.

Ich habe bereits versucht, die Datei /lib/firmware/mts_gsm.fw zu
verschieben und dann das Paket erneut zu installieren, aber der Fehler
bleibt. In dmesg und den log Dateien finde ich keine weiteren Infos.
Ich hab die Datei 
/var/cache/apt/archives/firmware-misc-nonfree_20161130-~deb8u1_all.deb
gelöscht und es erneut probiert. apt hat sie erneut runter geladen und
hat mit dem gleichen Fehler geendet.

Ich suche jetzt nach einem Weg, wie ich das System wieder in Ordnung
bringe, ohne den Router neu zu installieren. Kann jemand eine Idee, was
ich machen kann?

tschau

Sascha


-- 
Linux mailing list Linux@lug-owl.de
subscribe/unsubscribe: https://lug-owl.de/mailman/listinfo/linux
Hinweise zur Nutzung: http://www.lug-owl.de/Mailingliste/hints.epo

Re: /var/log im tmpfs - automatisch Unterverzeichnisse anlegen

2018-02-24 Diskussionsfäden Sascha Effert
Hi,

eigentlich gibt es für temporäre Verzeichnisse einen eigenen Diesmst: 
https://www.freedesktop.org/software/systemd/man/systemd-tmpfiles.html. Damit 
kann man auch Verzeichnisse anlegen lassen. Damit müsstest Du dann nur eine 
config in /etc/tmpfiles.d anlegen. Das sollte von selbst vor nginx gestartet 
werden.

tschau

Sascha


Am 1. Februar 2018 22:24:44 MEZ schrieb "Stefan U. Hegner" 
:
>Moin Flo
>
>Am 01.02.2018 um 21:18 schrieb Florian Lohoff:
>> On Thu, Feb 01, 2018 at 10:49:31AM +0100, Stefan U. Hegner wrote:
>>> Frage: Wie / wo baue ich das am cleversten ein, dass nach dem
>mounten
>>> des tmpfs /var/log über die /etc/fstab das Verzeichnis
>/var/log/nginx
>>> angelegt wird?
>> Ich würde das in die systemd unit file vom nginx packen - Das dingen
>> soll vor dem start einach das directory anlegen.
>Danke für Deine Antwort. -- Klingt auch wie ein guter Plan.
>
>Aber kann ich das direkt in der
>
>/lib/systemd/system/nginx.service
>
>unterbringen?
>
>Mir schwebt da etwas vor wie:
>
># Create log directory if not available
>if [ -d /var/log/nginx ]; then
>    echo "nginx logdir already exists.";
>else
>    mkdir /var/log/nginx;
>fi;
>
>Aber ich meine mich zu erinnern, dass die ExecStart[*] Einträge in der
>.service nur einen Kommandoaufruf und kein Shellscript vertragen.
>Aktuell steht da:
>
> ExecStartPre= /usr/sbin/nginx -t -q -g 'daemon on; master_process on;'
>ExecStart= /usr/sbin/nginx -g 'daemon on; master_process on;'
>
>D.h. ich müsste ein Script bauen in welches ich das Pre-Kommando und
>meinen Verzeichnis-Test packe. Sicher möglich. ... aber geht das auch
>eleganter?
>
>LG
>
>Hegi.
>
>-- 
>Stefan U. Hegner
> 
>  * * *
>D-32584 Löhne --- good ole Germany
>internet: http://www.hegner-web.de
>  * * *
>GPG-Key | 048D 7F64 0BEB 73B1 2725
>F-Print | C05E 4F77 9674 EF11 55FE

-- 
Diese Nachricht wurde von meinem Android-Gerät mit K-9 Mail gesendet.
-- 
Linux mailing list Linux@lug-owl.de
subscribe/unsubscribe: http://lug-owl.de/mailman/listinfo/linux
Hinweise zur Nutzung: http://www.lug-owl.de/Mailingliste/hints.epo

Re: Ton weiter leiten

2016-02-29 Diskussionsfäden Sascha Effert
Ach Mist, denkfehler (schon wieder): Das heist ja dann auch wieder, dass
ich über den SIP-Provider raus telefonieren würde, wie bei der
Weiterleitung auf mein Festnetztelefon. Ich muss aber recht häufig in
die USA, nach Indien und China telefonieren. Mit dem Handy ist das
problemfrei (weltweite Flat)...

Komme ich also doch nicht weiter mit...

tschau

Sascha

Am 02/18/2016 um 07:45 PM schrieb Sascha Effert:
> Hi,
>
> die Idee finde ich sehr gut, viel zu einfach um selbst drauf zu kommen...
>
> Kannst Du mir einen guten Provider VoIP Provider empfehlen?
>
> tschau
>
> Sascha
>
> Am 02/16/2016 um 12:24 AM schrieb A. Dreyer (LUG-OWL):
>> On 2016-02-15 18:42, Sascha Effert wrote:
>>> Hallo,
>>>
>>> ich hab in meinem Arbeitszimmer leider keinen Empfang mit dem Handy und
>>> suche jetzt nach einer Lösung. Leider kann ich die Strecke auch nicht
>>> mit einer Bluetooth Freisprecheinrichtung überbrücken.
>>>
>>> Ich würde gern sowas wie eine Freisprecheinrichtung übers Netzwerk
>>> hinkriegen. Dazu möchte ich mein Handy im Wohnzimmer per Line-In und
>>> Line-Out über eine USB-Soundkarte mit einem Raspberry verbinden. Dann
>>> möchte ich mich im Keller an meinen Rechner setzen können, um mein
>>> Headset, dass ich dort an meinem Ubuntu-Rechner habe, zum telefonieren
>>> verwenden zu können. Habt ihr eine Ahnung, wie ich sowas halbwegs
>>> Latenzarm und ohne allzuviel Aufwand hinkriege? Meine erste Idee war ein
>>> Streaming-Server auf dem Raspberry, der den Ton vom Handy an meinen
>>> Rechner in den Keller leitet und einen Streamingserver auf dem Rechner
>>> im Keller für die Gegenrichtung. Aber irgendwie glaube ich, dass ich es
>>> mir damit viel zu kompliziert mache... Irgendwas, das z.B. per ssh und
>>> ein paar pipes arbeitet wäre mir eigentlich lieber...
>>>
>>>
>>> tschau
>>>
>>> Sascha
>> Hi Sascha,
>>
>> Ich würde eher vermeiden extra Hardware dazwischen zu schalten.
>>
>> Geht's nicht auch per VoIP?  Handynummer mit Weiterleitung auf VoIP bei
>> nicht erreichbar.
>>
>>
>> Bei mir habe ich seid Jahren so eingerichtet das Anrufe auf meine
>> Festnetznummer auf einen VoIP Provider weitergeleitet werden. Mein
>> Mobilfon hat einen VoIP client und immer wenn ich irgendwo im Wifi Netz
>> bin verbindet der sich automatisch mit dem Provider. Klappt bestens -
>> selbst im Cafe, Kneipe, bei der Arbeit und zu Hause.
>>
>> Mobil-Phone:jetzt Android, vorher Nokia
>> VoIP Client:   'CSipSimple' oder 'VoIP by antisip'
>> VoIP Provider:   ekiga.net, sipgate.de, sipgate.co.uk
>>
>>
>> Ciao,
>> Achim
>>

-- 
Linux mailing list Linux@lug-owl.de
subscribe/unsubscribe: http://lug-owl.de/mailman/listinfo/linux
Hinweise zur Nutzung: http://www.lug-owl.de/Mailingliste/hints.epo

Re: Ton weiter leiten

2016-02-18 Diskussionsfäden Sascha Effert
Hi,

die Idee finde ich sehr gut, viel zu einfach um selbst drauf zu kommen...

Kannst Du mir einen guten Provider VoIP Provider empfehlen?

tschau

Sascha

Am 02/16/2016 um 12:24 AM schrieb A. Dreyer (LUG-OWL):
> On 2016-02-15 18:42, Sascha Effert wrote:
>> Hallo,
>>
>> ich hab in meinem Arbeitszimmer leider keinen Empfang mit dem Handy und
>> suche jetzt nach einer Lösung. Leider kann ich die Strecke auch nicht
>> mit einer Bluetooth Freisprecheinrichtung überbrücken.
>>
>> Ich würde gern sowas wie eine Freisprecheinrichtung übers Netzwerk
>> hinkriegen. Dazu möchte ich mein Handy im Wohnzimmer per Line-In und
>> Line-Out über eine USB-Soundkarte mit einem Raspberry verbinden. Dann
>> möchte ich mich im Keller an meinen Rechner setzen können, um mein
>> Headset, dass ich dort an meinem Ubuntu-Rechner habe, zum telefonieren
>> verwenden zu können. Habt ihr eine Ahnung, wie ich sowas halbwegs
>> Latenzarm und ohne allzuviel Aufwand hinkriege? Meine erste Idee war ein
>> Streaming-Server auf dem Raspberry, der den Ton vom Handy an meinen
>> Rechner in den Keller leitet und einen Streamingserver auf dem Rechner
>> im Keller für die Gegenrichtung. Aber irgendwie glaube ich, dass ich es
>> mir damit viel zu kompliziert mache... Irgendwas, das z.B. per ssh und
>> ein paar pipes arbeitet wäre mir eigentlich lieber...
>>
>>
>> tschau
>>
>> Sascha
> Hi Sascha,
>
> Ich würde eher vermeiden extra Hardware dazwischen zu schalten.
>
> Geht's nicht auch per VoIP?  Handynummer mit Weiterleitung auf VoIP bei
> nicht erreichbar.
>
>
> Bei mir habe ich seid Jahren so eingerichtet das Anrufe auf meine
> Festnetznummer auf einen VoIP Provider weitergeleitet werden. Mein
> Mobilfon hat einen VoIP client und immer wenn ich irgendwo im Wifi Netz
> bin verbindet der sich automatisch mit dem Provider. Klappt bestens -
> selbst im Cafe, Kneipe, bei der Arbeit und zu Hause.
>
> Mobil-Phone:jetzt Android, vorher Nokia
> VoIP Client:   'CSipSimple' oder 'VoIP by antisip'
> VoIP Provider:   ekiga.net, sipgate.de, sipgate.co.uk
>
>
> Ciao,
> Achim
>

-- 
Linux mailing list Linux@lug-owl.de
subscribe/unsubscribe: http://lug-owl.de/mailman/listinfo/linux
Hinweise zur Nutzung: http://www.lug-owl.de/Mailingliste/hints.epo

Re: Ton weiter leiten

2016-02-16 Diskussionsfäden Dr. Sascha Effert

Am 2016-02-16 09:42, schrieb Hans-Joachim Hötger:

Hallo,
On 15.02.2016 19:42, Sascha Effert wrote:
ich hab in meinem Arbeitszimmer leider keinen Empfang mit dem Handy 
und

suche jetzt nach einer Lösung. Leider kann ich die Strecke auch nicht
mit einer Bluetooth Freisprecheinrichtung überbrücken.


das dürfte schwierig werden. Was ist denn mit einem ordinären Dect
Telefon an einer Festnetzleitung? Wenns unbedingt Mobile sein muß, 
kommt
vielleicht eine Femtozelle (https://de.wikipedia.org/wiki/Femtozelle) 
in

Frage. Die WP Information ist ja inzwischen schon etwas älter.
Vielleicht fragst Du einfach mal den Mobile Anbieter Deines Vertrauens.
Liebe Grüße


Geht um mein Diensthandy, ich müsste über die Nummer erreichbar sein und 
darüber Leute anrufen können. Da dabei auch Auslandsanrufe vorkommen, 
würde ich die bei meinem Festnetztelefon selbst zahlen müssen...


Femtozelle macht Vodafone für privat gar nicht mehr und für Business nur 
mit großem Aufriß... Mit denen hab ich natürlich als erstes gesprochen. 
Und selbst eine Femtozelle betreiben kann man in Deutschland nur mit 
Genehmigung aller Lizenznehmer für die entsprechende Frequenz (in dem 
Fall Telekom und Vodafone). Die zu bekommen ist in etwa so 
wahrscheinlich wie meine Wahl zum nächsten Papst...


--
tschau

Sascha
--
Linux mailing list Linux@lug-owl.de
subscribe/unsubscribe: http://lug-owl.de/mailman/listinfo/linux
Hinweise zur Nutzung: http://www.lug-owl.de/Mailingliste/hints.epo

Ton weiter leiten

2016-02-15 Diskussionsfäden Sascha Effert
Hallo,

ich hab in meinem Arbeitszimmer leider keinen Empfang mit dem Handy und
suche jetzt nach einer Lösung. Leider kann ich die Strecke auch nicht
mit einer Bluetooth Freisprecheinrichtung überbrücken.

Ich würde gern sowas wie eine Freisprecheinrichtung übers Netzwerk
hinkriegen. Dazu möchte ich mein Handy im Wohnzimmer per Line-In und
Line-Out über eine USB-Soundkarte mit einem Raspberry verbinden. Dann
möchte ich mich im Keller an meinen Rechner setzen können, um mein
Headset, dass ich dort an meinem Ubuntu-Rechner habe, zum telefonieren
verwenden zu können. Habt ihr eine Ahnung, wie ich sowas halbwegs
Latenzarm und ohne allzuviel Aufwand hinkriege? Meine erste Idee war ein
Streaming-Server auf dem Raspberry, der den Ton vom Handy an meinen
Rechner in den Keller leitet und einen Streamingserver auf dem Rechner
im Keller für die Gegenrichtung. Aber irgendwie glaube ich, dass ich es
mir damit viel zu kompliziert mache... Irgendwas, das z.B. per ssh und
ein paar pipes arbeitet wäre mir eigentlich lieber...


tschau

Sascha
-- 
Linux mailing list Linux@lug-owl.de
subscribe/unsubscribe: http://lug-owl.de/mailman/listinfo/linux
Hinweise zur Nutzung: http://www.lug-owl.de/Mailingliste/hints.epo

Mailadresse

2016-01-11 Diskussionsfäden Dr. Sascha Effert
Hallo,

kann jemand von Euch auf die Liste der Mailadressen in der Mailingliste 
zugreifen? Ich versuche raus zu kriegen mit welcher Adresse ich eingtragen bin. 
Die Adresse müsste entweder mit fermat@ oder Sascha.Effert@ beginnen... 
Anscheinend ist das nicht die Adresse, von der ich gerade schreibe.

Falks mir der Moderator, der diese Mail freigibt helfen kann, dann muss sie von 
mir aus auch nicht frei gegeben werden...

tschau

Sascha

-- 
Diese Nachricht wurde von meinem Android-Mobiltelefon mit K-9 Mail gesendet.
-- 
Linux mailing list Linux@lug-owl.de
subscribe/unsubscribe: http://lug-owl.de/mailman/listinfo/linux
Hinweise zur Nutzung: http://www.lug-owl.de/Mailingliste/hints.epo

Re: Label gestalten bzw. Software installieren

2015-10-27 Diskussionsfäden Dr. Sascha Effert
Hallo,

kcdlabel scheint tot zu sein, die bauen noch auf KDE 3 auf. Das auf einem 
aktuellen Linux ans rennen zu bringt wird sehr schwierig.

Was genau willst Du tun? Label auf Papier ausdrucken und auf CDs kleben? Oder 
hast Du einen Drucker für bedruckbare CDs? 

Für alles, was auf Papier geht (oder Aufkleberfolien oder was auch immer) hab 
ich mir bei Bedarf immer Vorlagen in LibreOffice Draw oder Inkscape erstellt. 
Falls es Dir aber um Hardwaresupport für irgend einen speziellen Drucker geht, 
dann schick bitte mal rum, welcher das ist.

tschau

Sascha


Am 17. September 2015 09:11:33 MESZ, schrieb Manfred 
:
>Hallo allerseits,
>
>vielleicht kann mir jemand ein Programm empfehlen, mit dem man 
>CD/DVD-Label gestalten kann. Ich arbeite mit Ubuntu 14.04. Ich habe
>auch 
>ein Programm gefunden, mit dem man Labels gestalten können soll 
>(kcdlabel). Doch kann ich es nicht installieren, da es im 
>Ubuntu-Software-Center nicht gelistet ist. Zwar kann man es von der 
>Seite des Herstellers herunter laden, jedoch nicht als  .deb-Datei. 
>(Obwohl das für ältere Versionen angeboten wird, funzt der Download 
>nicht.) Ein Download als .tar.gz-Datei ist möglich. Die kann ich auch 
>auf meinem Rechner entpacken. Aber wie geht es dann weiter? Wie kriege 
>ich die Software installiert?
>
>Vielleicht kann mir jemand einen Tipp geben.
>
>Grüße in die Runde
>
>Manfred (Köllner)
>-- 
>Linux mailing list Linux@lug-owl.de
>subscribe/unsubscribe: http://lug-owl.de/mailman/listinfo/linux
>Hinweise zur Nutzung: http://www.lug-owl.de/Mailingliste/hints.epo

-- 
Diese Nachricht wurde von meinem Android-Mobiltelefon mit K-9 Mail gesendet.
-- 
Linux mailing list Linux@lug-owl.de
subscribe/unsubscribe: http://lug-owl.de/mailman/listinfo/linux
Hinweise zur Nutzung: http://www.lug-owl.de/Mailingliste/hints.epo

Drucker/Scanner Kombi

2015-01-26 Diskussionsfäden Sascha Effert
Hallo,

ich habe hier einen brother DCP-195C (Scanner, Drucker, Kopierer). Das Ding 
druckt mittlerweile extrem verschwommen. Reinigung des Druckkopf hat nichts 
gebracht. Ich frage mich, ob es noch was anderes gibt, was ich tun, damit das 
Ding wieder funktioniert. Ich dachte an sowas wie kalibrierung des Druckkopfes 
(ich weiß, dass sowas früher teilweise nötig war, um die Druckköpfe für die 
verschiedenen Farben aufeinander abzustimmen).

Hat wer eine Ahnung, ob da irgendwas geht?

tschau

Sascha

-- 
Linux mailing list Linux@lug-owl.de
subscribe/unsubscribe: http://lug-owl.de/mailman/listinfo/linux
Hinweise zur Nutzung: http://www.lug-owl.de/Mailingliste/hints.epo


usb platten automatisch an/ausschalten

2013-11-25 Diskussionsfäden Sascha Effert

Hallo,

ich habe hier ein Raspberry (Raspbian, als Debian wheezy 7.2) mit 
einigen USB-Platten mit externer Stromversorgung als Medien-Server. Ich 
würde die Platten gern automatisch vom Strom nehmen, wenn sie nicht 
benötigt werden, und automatisch wieder an den Strom kriegen, wenn ich 
sie brauche. Das Spinn-down der Platten bringt mir leider wenig, da die 
Dinger kein geregeltes Netzteil haben.


Dazu habe ich mir jetzt eine Steckdosenleiste besorgt, deren Steckdosen 
ich über USB an- und abschalten kann. Funktioniert auch, von der Shell 
aus klappt das wunderbar.


Jetzt habe ich versucht, autofs zu benutzen, um die Platten automatisch 
einzuschalten. Bin aber leider gescheitert. Ich habe z.B. eine 
Festplatte für den mountpoint /backup/Backup_1. Ich habe zunächst in der 
fstab einen Eintrag hinzugefügt, mit dem die Platte an den richtigen 
Mountpoint gebracht wird:


UUID=--..   /backup/Backup_1 ext4 defaults,noatime,noauto 0 0

Dann habe ich in /etc/auto.master einen Eintrag eingefügt, um das 
Verzeichnis zu überwachen:


/backup /etc/auto.backup_1

Die Datei /etc/auto.backup_1 ist ausführbar (chmod 755) und enthält ein 
Skript zum mounten des Verzeichnisses:


#!/bin/bash
sispmctl -o 1
sleep 20
mount /backup/Backup_1

Wenn ich Versuche auf /mnt/Backup_1 zuzugreifen passiert aber leider 
nichts. Ich habe auch versucht den Eintrag in auto.master auf 
/backup/Backup_1 verweisen zu lassen, hat aber auch nicht gekplappt.


Hat jemand eine Idee, was ich falsch gemacht haben könnte? Oder 
vielleicht einen besseren vorschlag wie ich die Platten automatisch an- 
und abschalten kann?


tschau

Sascha
--
Linux mailing list Linux@lug-owl.de
subscribe/unsubscribe: http://lug-owl.de/mailman/listinfo/linux
Hinweise zur Nutzung: http://www.lug-owl.de/Mailingliste/hints.epo


Re: SMB Fileserver für Videostreams: Performanc eüberlegungen und Fragen

2010-08-03 Diskussionsfäden Sascha Effert
Hallo,

da ein Freund von mir gerade auch nach einem neuen File-Server sucht und ich 
ihn gestern auf die Kiste aufmerksam gemacht habe: Kannst Du mal verraten, wie 
schnell das Ding so in etwa ist? (plus/minus 10 MB/s wäre völlig ausreichend)

tschau

Sascha

Am 03.08.2010 um 15:09 schrieb Florian Lohoff:

> On Tue, Aug 03, 2010 at 01:15:28PM +0200, Peter Lohmann wrote:
>> Am 05.05.10 08:01, schrieb Florian Lohoff:
>> 
>>> http://blog.rfc822.org/index.php?/archives/86-Neue-Zentrale-fuer-Zuhause.html
>> 
>> Hallo Flo!
>> 
>> Mich würd mal interessieren, was so aus der o.g. Kiste geworden ist.
>> Läuft die rund und gut?
> 
> Keine Probleme ... Der Via ist sicherlich kein Geschwindigkeitswunder und
> das Gigabit auch eher schnarchig im vergleich zu modernen net adapters die
> ja alle moeglichen offloading geschichten unterstuetzen - aber es laeuft.
> 
>> Hast du zufällig noch eine Artikelnummer von dem DIP-VGA Adapter? Ich
>> find den auf der Techcaseseite nicht.
> 
> Der lag einfach mit in der KIste - musste ich nicht seperat bestellen.
> 
> Flo
> -- 
> Florian Lohoff f...@zz.de
> --
> Linux mailing list Linux@lug-owl.de
> subscribe/unsubscribe: http://lug-owl.de/mailman/listinfo/linux
> Hinweise zur Nutzung: http://www.lug-owl.de/Mailingliste/hints.epo

--
Linux mailing list Linux@lug-owl.de
subscribe/unsubscribe: http://lug-owl.de/mailman/listinfo/linux
Hinweise zur Nutzung: http://www.lug-owl.de/Mailingliste/hints.epo


Regualar Expression für numerische Bereiche

2010-07-10 Diskussionsfäden Sascha Effert
Hallo,

ich habe ein kleines Problem. Ich habe in Java einen Key/Value-Store 
geschrieben, welcher Strings auf Strings abbildet. Mittels Regular Expressions 
ist es möglich Elemente zu suchen. Jetzt möchten einige Anwender dieses 
Key-Value-Stores als Keys Zahlen speichern (z.B. "13" oder "19765457932") und 
danach nach allen Wrten suchen, die z.B. größer als 783 and kleiner als 57954 
sind, also alle Werte, die in einem von ihnen spezifizierten Bereich liegen. 
Kann ich so eine Abfrage auf Regular Expressions abbilden? 

In awk sähe die Abfrage, die ich brauche, in etwa wie folgt aus: {if (($0 != 
"") && ($0 ~ "^[0-9]*$") && ($0 > 783) && ($0 < 57954)) {print NR, $0}}

tschau

Sascha Effert
--
Linux mailing list Linux@lug-owl.de
subscribe/unsubscribe: http://lug-owl.de/mailman/listinfo/linux
Hinweise zur Nutzung: http://www.lug-owl.de/Mailingliste/hints.epo


Re: Speicherbedarf eines Prozesses

2010-04-26 Diskussionsfäden Sascha Effert
Am Freitag, den 23.04.2010, 17:47 +0200 schrieb Jan 'RedBully' Seiffert:
> Sascha Effert schrieb:
> > Hallo,
> > 
> [snip]
> > Theoretisch ich schalte auf der Maschine den swap komplett ab, wie
> > zuverlässig ist dann die Aussage von RSS? Selbst verständlich ist der
> > von mir verwendete Speicher darin immer noch auf page size Granularität,
> > aber das ist o.k., denn wenn ich Dich richtig verstehe, kann den
> > restlichen Speicher eh kein anderer Prozess erhalten. Also sollte mir
> > das doch weiter helfen, oder?
> > 
> 
> Die einfache Antwort:
> Ja

Super! :-)

> Die komplizierte Antwort:
> Kommt drauf an ob du das extrinsisch oder intrinsisch betrachten willst.

Mist... :-(

> Extrinsisch ist die RSS das was das Programm braucht, was die Maschine eben an
> RAM haben muss damit deine Chose laeuft. Punkt. (Naja, plus SHR, plus System
> overhead, etc.). Swap aus ist dabei vernuenftig, den swap heist meist -> tot.
> Das Programm alloziert den Speicher ja nicht zum Spass.
> 
> Intrinsisch, aus Sicht des Programms kann es gut sein das in dieser Nummer 
> eine
> Menge overhead steckt, das Programm eigentlich grade garnicht soviel Speicher
> braucht, er halt in den ganzen Abstraktionsebenen festheangt.
> Wenn man dann man dem nachgeht wo der overhead herkommt, kann man vielleicht 
> mit
> ein paar kleinen aenderungen die RSS "ordentlich" senken.
> 
> Ein Beispiel um zu verdeutlichen was ich meine:
> Der Stack eines Programms (oder threads) ist erstmal ein mmap von Anon 
> speicher,
> dahinter die sogenannte guard page. Wenn dein Programm jetzt mehr stack 
> braucht,
> laeuft es in die guard page, der stack waechst nach unten. Mehr Speicherseiten
> werden Stueck fuer Stueck in den Stack gefaultet. Das ist soweit erstmal 
> alles fit.
> Wo man sich jetzt ins Knie schiessen kann: Beim Programmstart brauchst du aus
> irgendeinem Grund viel Stack (Grosse Config/Cache Datei wird in Puffer auf 
> Stack
> geladen, irgendein rekursiver Algo bereitet den run vor), Dein Stack waechst 
> aus
> diesem "once-off" Grund auf enorme Groessen (Sagen wir 2 MB), der restliche 
> Lauf
> des Programms braucht den Stack aber nicht mehr so gross (oft irgendwas im
> Bereich < 64k), denoch hast du den Speicher "ge-captured".

Also, zunächst: Hast Du gerade 2 MB als enorme Speichermenge bezeichnet?
Im Moment liegt mein Prozess bei fröhlich 62 GB RSS, 64 GB Virt (hab den
Swap noch laufen). 

Ich habe das Programm so aufgebaut, dass es immer recht große Blöcke an
Speicher sind, die gleichzeit allokiert/deallokiert werden. Daher dürfte
ich zumindest mit dem Verschnitt des pages keinen größeren Probleme
haben.

Ach ja, für alle denen noch klar war, wie schlimm XML mit DOM ist: Wenn
ich mit der libxerces-c eine 4 GB XML Datei als DOM lade, dann braucht
das ca. 40 GB RAM... (Ich war jung und hatte den Speicher...) Vielleicht
werfe ich den XML-Kram noch raus und ersetze ihn durch irgendwas
sinnvolles.

Nur um sicher zu gehen: sehe ich es richtig, dass ich den SWAP wirklich
abstellen muss, damit der Prozess ihn nicht verwendet? Oder gibt es
irgendeine Möglichkeit dem Betriebssystem zu sagen, dass bestimmter
Speicher (oder Speicher von bestimmten Prozessen) nicht geswapt werden
darf?

tschau

Sascha

--
Linux mailing list Linux@lug-owl.de
subscribe/unsubscribe: http://lug-owl.de/mailman/listinfo/linux
Hinweise zur Nutzung: http://www.lug-owl.de/Mailingliste/hints.epo

Re: Speicherbedarf eines Prozesses

2010-04-23 Diskussionsfäden Sascha Effert
Hallo,

erst mal vielen Dank für die ausführliche Erläuterung. Mit war ehrlich
gesagt nicht bewusst, was da alles im Hintergrund passiert. Bisher war
ich so naiv zu glauben, dass ich nach einem malloc wirklich speicher in
Händen hätte, und nicht erst nach einem page fault...

Theoretisch ich schalte auf der Maschine den swap komplett ab, wie
zuverlässig ist dann die Aussage von RSS? Selbst verständlich ist der
von mir verwendete Speicher darin immer noch auf page size Granularität,
aber das ist o.k., denn wenn ich Dich richtig verstehe, kann den
restlichen Speicher eh kein anderer Prozess erhalten. Also sollte mir
das doch weiter helfen, oder?

tschau

Sascha

Am Donnerstag, den 22.04.2010, 23:07 +0200 schrieb Jan 'RedBully'
Seiffert:
> Sascha Effert schrieb:
> > Am Mittwoch, den 21.04.2010, 17:01 +0200 schrieb Florian Lohoff:
> [snip]
> >> Die RSS ist ja nur ein real life parameter der den best case darstellt.
> >> wenn dein system memory pressure hat wird das ja weniger. Besser ist es
> >> die VSZ  sich anzuschauen - das ist ja eher die worst case betrachtung.
> >>
> >> Ansonsten mal valgrind ansehen - ich meine der spuckt auch stats aus,
> >> die beinhalten aber IIRC nur malloc d.h. nicht dein text segment deiner 
> >> libs.
> >>
> >> Flo
> > 
> > O.K., danke für die vielen Antworten. Mir war nicht bewusst, dass das so
> > ein Problem ist. In Java ist das irgendwie einfacher... :-)
> > 
> > Ich werde weiter per ps den Prozess scannen, bessere Werte scheine ich
> > auch aus dem Prozess selbst heraus nicht zu erhalten ohne erheblichen
> > Aufwand in das mitzählen bei jedem new/malloc und der Berechnung des
> > Verbrauchs auf dem Stack zu benötigen.
> > 
> > Als Parameter werde ich VSZ verwenden. Ich hatte tatsächlich vorher
> > nicht realisiert, dass RSS nicht den geswapten Speicher mit
> > einberechnet. Sehe ich es richtig, dass auf einem Rechner ohne Swap
> > immer RSS=VSZ gilt? Ich bin ein wenig verwundert, denn auf meinem gerade
> > gestarteten Notebook erhalte ich für Evolution RSS 50664 (ca. 50 MB) und
> > VSZ 198364 (ca. 200 MB). top sagt mir aber, dass ich momentan keinen
> > SWAP (0 k) verwende. Kann mir das jemand erklären?
> > 
> 
> Der Grund, warum ich eigentlich auch erst Florians Hinweis auf die VSZ so 
> nicht
> stehen lassen wollte, ist dass die VSZ IMHO nicht sooo viel aussagt.
> Ja, sie ist ein Worst-Case-Mass.
> Aber ein seeehr grobes.
> 
> Die VSZ ist nur die "groesse" des virtuellen Adressraums, dieser muss nicht 
> mit
> irgendwas unterfuettert (a.k.a. echtem Speicher, RSS & SHR) sein.
> Es gibt da zwar eine enge Korrelation, aber es gibt genug Situationen in denen
> einfach ein riesen Adressraum da ist, aber nichts dahinter.
> mmap eine grosse Datei im Stueck und fass nur ein bischen davon an oder schieb
> mit sbrk deinen Heap um 5MB hoch (z.B. default inkrement um nicht so oft sbrk
> aufzurufen), bumm, deine VSZ ist sofort einen ganzen Sack groesser.
> 
> Klassische Beispiele sind Virtuelle Maschinen/Interpreter, die erstmal ein
> grossen "Spielplatz" anlegen, oder Emulatoren, oder Wine (versucht den
> Adressraum aussehen zu lassen wie unter Windows, da hat man schnell VSZ=2G, 
> bei
> RSS=30M).
> 
> Aber auch duenn besiedelte grosse Strukturen oder einfach Fragmentation 
> koennen
> dazu fuehren (Du kannst die VSZ "hinten" nicht verkleinern weil da noch ein
> Objekt lebt, aber du kannst die Speicherseiten dazwischen schon mal mit
> madvise(WONT_NEED) zurueckgeben).
> 
> Bei Evolution, ich wuerd sagen der uebliche C++ bloat mit gaaanz viel
> Allokationen (man hat ja endlich richtige Strings, in Containern...).
> 
> Schau dir z.B. mal den neuen Firefox mit jemalloc in htop an. Auch der belegt
> riesige mengen VSZ (hier grad 380M), aber (wegen jemalloc) um die 
> Fragmentation
> zu senken (dynamische Skriptsprache integriert, viel Grafik gedoense, GUI ist 
> in
> Javascript, viel Textverabeitung, Berge von Libs, Plugins), so das die RSS
> schoen rauf und runter gehen kann, je nachdem wieviel Speicher grad _wirklich_
> gebraucht wird.
> 
> Mit anderen worten:
> VSZ ist der max. moegliche Speicherverbrauch (aka Adressraumgroese)
> RSS ist der tatsaechliche eigene Speicherverbrauch
> SHR ist der teilbare Speicherverbrauch, er muss aber nicht geteilt sein
> 
> Wenn was rausgeswapt wird, werden AFAIK RSS und SHR kleiner.
> Leider ist SWP AFAIK nicht einzeln fuer einen Prozess verfuegbar.
> 
> Das Speichermanagement ist eben kompliziert (im Kernel und in guten 
> Allokatoren)
> um aus dem Speicher in einer Maschine das "maximum" (klar, koennte immer alles
> noch viel besser sein) rauszuholen

Re: password manager

2010-04-22 Diskussionsfäden Sascha Effert
Am Donnerstag, den 22.04.2010, 13:14 +0200 schrieb Markus Wigge:
> Hi,
> 
> kennt einer von euch eine gute Passwort Management Software die auch
> ihre Daten über einen Server synchronisieren kann?
> Wenn ich google anwerfe finde ich zahllose Tools aber syncen kann
> scheinbar nur "UPM" und das ist in Java geschrieben und scheinbar schon
> länger nicht mehr gepflegt.
> 
> Was verwendet ihr denn so?

KeePassX, und die verschlüsselte Passwortdatei liegt auf einem Server,
den ich per sh erreichen kann (und in Kopie lokal auf meinem
Notebook...). Passwörter synchronisieren wollte ich nie... KeePassX
arbeitet unter allen möglichen Systemen (sogar auf den meisten
Smartphones) mit der gleichen Passwort und Schlüsseldatei, so dass diese
einfach hin und her kopiert werden können.

tschau

Sascha

--
Linux mailing list Linux@lug-owl.de
subscribe/unsubscribe: http://lug-owl.de/mailman/listinfo/linux
Hinweise zur Nutzung: http://www.lug-owl.de/Mailingliste/hints.epo

Re: Speicherbedarf eines Prozesses

2010-04-21 Diskussionsfäden Sascha Effert
Am Mittwoch, den 21.04.2010, 17:01 +0200 schrieb Florian Lohoff:
> On Mon, Apr 19, 2010 at 11:54:08AM +0200, Sascha Effert wrote:
> > Hallo,
> > 
> > ich habe in C++ eine shared library und ein Programm, welches dies
> > benutzt geschrieben. Ich würde jetzt gerne mit dem Speicherbedarf
> > experimentieren, speziell mit dem, was durch die shared lib verbraucht
> > wird. Momentan habe ich dazu das Programm gestartet und regelmäßig mit
> > ps -p $PID -o rss h
> > den genutzten Speicherbedarf abgefragt. Habe ich damit wirklich den
> > gesamten Speicher, den der Prozess benötigt? Ich muss gestehen, ich
> > blicke durch die verschiednen Parameter nicht durch.
> 
> Die RSS ist ja nur ein real life parameter der den best case darstellt.
> wenn dein system memory pressure hat wird das ja weniger. Besser ist es
> die VSZ  sich anzuschauen - das ist ja eher die worst case betrachtung.
> 
> Ansonsten mal valgrind ansehen - ich meine der spuckt auch stats aus,
> die beinhalten aber IIRC nur malloc d.h. nicht dein text segment deiner libs.
> 
> Flo

O.K., danke für die vielen Antworten. Mir war nicht bewusst, dass das so
ein Problem ist. In Java ist das irgendwie einfacher... :-)

Ich werde weiter per ps den Prozess scannen, bessere Werte scheine ich
auch aus dem Prozess selbst heraus nicht zu erhalten ohne erheblichen
Aufwand in das mitzählen bei jedem new/malloc und der Berechnung des
Verbrauchs auf dem Stack zu benötigen.

Als Parameter werde ich VSZ verwenden. Ich hatte tatsächlich vorher
nicht realisiert, dass RSS nicht den geswapten Speicher mit
einberechnet. Sehe ich es richtig, dass auf einem Rechner ohne Swap
immer RSS=VSZ gilt? Ich bin ein wenig verwundert, denn auf meinem gerade
gestarteten Notebook erhalte ich für Evolution RSS 50664 (ca. 50 MB) und
VSZ 198364 (ca. 200 MB). top sagt mir aber, dass ich momentan keinen
SWAP (0 k) verwende. Kann mir das jemand erklären?

tschau

Sascha

--
Linux mailing list Linux@lug-owl.de
subscribe/unsubscribe: http://lug-owl.de/mailman/listinfo/linux
Hinweise zur Nutzung: http://www.lug-owl.de/Mailingliste/hints.epo

Speicherbedarf eines Prozesses

2010-04-19 Diskussionsfäden Sascha Effert
Hallo,

ich habe in C++ eine shared library und ein Programm, welches dies
benutzt geschrieben. Ich würde jetzt gerne mit dem Speicherbedarf
experimentieren, speziell mit dem, was durch die shared lib verbraucht
wird. Momentan habe ich dazu das Programm gestartet und regelmäßig mit
ps -p $PID -o rss h
den genutzten Speicherbedarf abgefragt. Habe ich damit wirklich den
gesamten Speicher, den der Prozess benötigt? Ich muss gestehen, ich
blicke durch die verschiednen Parameter nicht durch.

Da ich die Anwendung selbst geschrieben habe, könnte ich auch an
passenden Stellen die Methode getrusage aufrufen:
http://linux.die.net/man/2/getrusage
Leider ist mir auch hier wieder nicht ganz klar, worüber ich die gesamte
Menge des verwendeten Speichers meines Prozesses erhalte.

Sehr gerne hätte ich an verschiedenen Stellen auch den maximalen
Speicherbedarf, den der Prozess bisher hatte. Momentan würde ich den
selbst ermitteln, allerdings wäre es sehr schön, wenn es eine
Möglichkeit gäbe, diesen irgendwo auszulesen.

Kann mir jemand einen Rat, wie ich den Speicherbedarf meines Prozesses
am sinnvollsten überwache und wie ich (möglichst einfach) heraus
bekommen, was der maximale Speicherbedarf meines Prozesses war?

Ach ja: Umgebung ist (natürlich) Linux, sollte nachher möglichst auf
verschiedenen Kerneln arbeiten können. Auf einigen Maschinen (die ich
evtl. verwende) rennt ein RHEL 4 mit einem 2.6.9er Kernel, zumindest ein
2.6.18er (CentOS 5.3) Kernel muss allerdings genügen. Ich habe keine
root Rechte, aber notfalls die Admins in Reichweite um mir einzelne
Rechte geben zu lassen.

tschau

Sascha


--
Linux mailing list Linux@lug-owl.de
subscribe/unsubscribe: http://lug-owl.de/mailman/listinfo/linux
Hinweise zur Nutzung: http://www.lug-owl.de/Mailingliste/hints.epo

Re: MP3 Stream Server

2010-04-15 Diskussionsfäden Sascha Effert
Am Donnerstag, den 15.04.2010, 20:30 +0200 schrieb Christian Ordig:
> On Tue, Apr 13, 2010 at 07:20:58PM +0200, Volker Eckert wrote:
> > Schau dir mal Subsonic an http://www.subsonic.org/pages/features.jsp
> > Das sollte alle deine Wünsche erfüllen ;) 
> Das sieht durchaus interessant aus, ich habe mir mal die Demo angeschaut. 
> Allerdings klappt das Abspielen über den eingebetteten Flash-Player 
> nicht wirklich brauchbar wenn ich hinter einem Proxy mit Viren-Checker 
> bin. Der lädt erst den kompletten Track, checkt und gibt ihn dann an 
> den eingebetteten Flash-Player weiter. Das führt je nach Bandbreite und 
> Track-Länge zu sehr unschönen langen Pausen zwischen den einzelnen 
> Tracks. Ich hatte noch nicht genug Zeit zu testen, ob dieses Problem am 
> Player oder am Server liegt. Youtube funktioniert hinter dem selben 
> Proxy problemlos. ;-)
> 
> Grüße.
> 

Erfüllt es von Haus aus leider nicht: Wie bereits bemerkt streamt
subsonic nicht, sondern übergibt lediglich eine Playlist und erlaubt dem
Player die Datei runter zu laden. Allerdings beschreibt
http://www.activeobjects.no/subsonic/forum/viewtopic.php?t=1983&highlight=vlc+streaming
 wie man vlc zum streamen darüber baut. Das könnte funktionieren, habe ich aber 
noch nicht getestet.

Deren WAP-Interface taugt nicht viel und das normale Interface will auf
meinem Handy (Win Mobile 6.5) noch nicht so richtig. Das liegt aber
eindeutig an dem Handy.

Leider ist es auch nicht ganz so einfach, einfach random irgendein Lied
aus der mp3-Sammlung abspielen zu lassen. Theoretisch gibt es dazu die
Möglichkeit unter "more" eine Random Play List anzulegen, die auch
automatisch verlängert wird, allerdings klappt das nicht immer. Zum
einen Klappt das (natürlich) nur wenn die Playlist weiterhin vom Server
verwaltet wird (also nicht, wenn der Player so eingestellt ist, dass er
eine Playlist übermittelt), aber selbst dann klappte das nicht immer. Da
es aber immer funktioniert eine random-Playlist mit 50 Titeln anzulegen
ist das nicht so schlimm...

tschau

Sascha

--
Linux mailing list Linux@lug-owl.de
subscribe/unsubscribe: http://lug-owl.de/mailman/listinfo/linux
Hinweise zur Nutzung: http://www.lug-owl.de/Mailingliste/hints.epo

MP3 Stream Server

2010-04-12 Diskussionsfäden Sascha Effert
Hallo,

ich würde gerne von meinem Handy aus auf meine Musiksammlung zugreifen.
Um dies zu ermöglichen, habe ich mir überlegt, einen Stream-Server
aufzusetzen, der einen mp3 oder ogg Stream ins Netz sendet. Das sehe ich
dank Icecast als eher trivial an. Allerdings würde ich gerne über eine
Weboberfläche kontrollieren, was er abspielt. Ähnlich einem lokalen
Player hätte ich gerne die Möglichkeit bestimmte Alben, Titel oder
random irgendwas abspielen zu lassen. In dieser Richtung bin ich auch
mit längerer Suche überhaupt nicht weiter gekommen. Kennt von Euch da
vielleicht jemand etwas?

Da ich damit meine Musik im Internet verfügbar mache und ungern
GEMA-Gebühren dafür zahlen würde, sollte das ganze möglichst eine
Authentifizierung beinhalten. Irgendwas einfaches (ein Passwort für
alle) würde da allerdings völlig genügen (und notfalls würde ich das
durch Verwendung eines VPNs auch hinkriegen).

tschau

Sascha Effert

--
Linux mailing list Linux@lug-owl.de
subscribe/unsubscribe: http://lug-owl.de/mailman/listinfo/linux
Hinweise zur Nutzung: http://www.lug-owl.de/Mailingliste/hints.epo

Re: Postgres startet nicht mehr

2008-11-12 Diskussionsfäden Sascha Effert
Hallo Jan,

entschuldige, das die Antwort etwas auf sich warten ließ. War etwas dicht...

Am Donnerstag, 6. November 2008 22:10:29 schrieben Sie:
> > Super, das wars:
> >
> > linux-6h3q:~ # sysctl -w kernel.shmmax=134217728
> > kernel.shmmax = 134217728
> > linux-6h3q:~ # sysctl -w kernel.shmall=2097152
> > kernel.shmall = 2097152
> > linux-6h3q:~ # /etc/init.d/postgresql start
> > Starting PostgreSQL  
> > done linux-6h3q:~ #
>
> Cool. Weisst du noch auf was das vorher stand? Mir ist naehmlich noch nicht
> ganz klar ob das an den Zen-Sources liegt, oder ob es eine Aenderung von
> Bull an dem ganzen Shared Mem kram ist (scalabilty fixes, autosizing).
> Ich weiss nicht mehr genau, in welche Version Kernel-version die Patches
> gegangen sind (also hier ueberhaupt in Frage kommen).

linux-6h3q:~ # cat /proc/sys/kernel/shmmax
33554432
linux-6h3q:~ # cat /proc/sys/kernel/shmmni
4096
linux-6h3q:~ # cat /proc/sys/kernel/shmall
2097152

> > Habe jetzt in /etc/sysctl.conf die Zeilen
> >
> > #increase shared memory for postgres
> > kernel.shmmax = 134217728
> > kernel.shmall = 2097152
> >
> > aufgenommen, und hoffe, das es so jetzt auch nach einem Neustart
> > funktioniert.
>
> Sollte. Zumindest wuerde es das bei mir...
> Mach den Reboot-test, jetzt wo du daneben sitzt, und nicht irgendwann
> unfreiwillig wenn der Strom mal kurz weg ist und dann brennt es...

Hat alles funktioniert.

> > Übrigens habe ich den postgres auch ohne Startskript versucht zu starten,
> > ohne Erfolg und ohne Ausgabe, die mir geholfen hätte.
>
> Hmmm, laut Anleitung sollte der Daemon was sagen wenn er den shm-Bereich
> nicht allozieren kann...
> Sicher das da nicht noch ein --quiet als option dabei war oder sowas?

Ja. Ich habe alle Optionen raus genommen... War trotzdem sehr still.

> > Mit strace hatte ich es auch
> > probiert, aber nichts gefunden. Hätte ich das dort entdecken können?
>
> Nunja, man such dann immer nach Zeilen die (Achtung! Aussem kopf) so
> aussehen: funktion(argument, argument, argument) = -EFEHLER
>
> Jetzt kommt es drauf an, was funktion ist, was die Argumente sind, und was
> der Fehler ist.
>
> > Kann sein, das mir da was in der Flut der Ausgabe entgangen ist...
>
> Jo, da kann man schon mal den Ueberblick verlieren, auch nicht jeder Fehler
> ist "toetlich", da muss man gucken. Ausserdem kommt noch dazu, das man bei
> Programmen die forken (aus mehreren prozessen oder threads bestehen) sehen
> muss, ob man strace hinter jedem hinterherschickt ("-f").
>
> > tschau
> >
> >
> > Sascha Effert
> > [EMAIL PROTECTED]
>
> Gruss
>   Jan
>
>
> PS: Hast du die Liste aus dem cc: gelassen? Die waeren an der Loesung
> sicher auch interresiert.

War ein versehen. Normalerweile erwennt mein kontact Mailinglisten in einer 
Mail und schreibt immer automatisch an die statt an den Absender. Sollte 
hiermit wieder drin sein...

tschau


Sascha Effert
[EMAIL PROTECTED]

-- 
Being evil means it can be christmas every day.
-- 
Linux mailing list Linux@lug-owl.de
subscribe/unsubscribe: http://lug-owl.de/mailman/listinfo/linux
Hinweise zur Nutzung: http://www.lug-owl.de/Mailingliste/hints.epo

Re: Postgres startet nicht mehr

2008-11-06 Diskussionsfäden Sascha Effert
Am Donnerstag, 6. November 2008 10:07:43 schrieb Sascha Effert:
> Hallo,
>
> ich habe gerade auf meiner openSuSe 11.0 32Bit Installation festgestellt,
> dass postgres nicht mehr startet, sowohl über das init-Skript als auch wenn
> ich pg_ctl oder postgres von Hand starte. pg_ctl bringt mir folgende
> Ausgabe:
>
> [EMAIL PROTECTED]:~/data> pg_ctl
> start -w -p /usr/bin/postmaster -D /var/lib/pgsql/data/ -o "-i"
> waiting for server to
> start...could
> not start server
> [EMAIL PROTECTED]:~/data>
>
> Leider bekomme ich keine weiteren Informationen. In /var/log/messages
> erscheint nichts, eine andere Datei in /var/log, die mir nach Ausgaben der
> DB aussieht finde ich nicht. In /var/lib/pgsql/data wurde in keinem der
> Log-Verzeichnisse etwas verändert.
>
> Ich habe zwischen dem letzten erfolgreichen Start und diesem nicht
> erfolgreichen Start den Kernel ausgetauscht und den 2.6.25er durch einen
> 2.6.26er ersetzt (zen-Kernel von Gentoo). Das war notwendig, um das Suspend
> to ram ans rennen zu kriegen. Aber eigentlich sollte der Postgres davon
> nicht betroffen sein...
>
> Hat jemand eine Idee? Eine Idee, wie ich an mehr Informationen als "could
> not start server" komme, würde mir wahrscheinlich schon sehr weiter
> helfen...

Hallo,

schweren Herzens habe ich gerade doch mal meinen Rechner neu gestartet. Mit 
dem orginal Kernel (2.6.25) startet postgres sauber, aber auch nach dem 
reboot läuft er mit dem 2.6.26er Kernel nicht. Der Server wird mit der 
Option "-i" gestartet, ist also per Netzwerk erreichbar. Meine pg_hba.conf 
sieht wie folgt aus:

# TYPE  DATABASEUSERCIDR-ADDRESS  METHOD

# "local" is for Unix domain socket connections only
local   all all   trust
# IPv4 local connections:
hostall all 127.0.0.1/32  trust
# IPv6 local connections:
hostall all ::1/128   trust

Ich habe es auch ohne die IPv6-Zeile ausprobiert, ohne Erfolg. Ich erhalte 
immer nur

linux-6h3q:/var/lib/pgsql/data # /etc/init.d/postgresql start
Starting PostgreSQLkonnte Server nicht starten
  failed
linux-6h3q:/var/lib/pgsql/data #

Braucht postgresql irgendwas spezielles aus dem Kernel, was mir sonst 
entgangen ist? Der 2.6.26er Kernel rennt bei mir schon seit einigen Wochen 
ohne sonstige Beanstandung.

tschau


Sascha Effert
[EMAIL PROTECTED]

-- 
Being evil means it can be christmas every day.
-- 
Linux mailing list Linux@lug-owl.de
subscribe/unsubscribe: http://lug-owl.de/mailman/listinfo/linux
Hinweise zur Nutzung: http://www.lug-owl.de/Mailingliste/hints.epo


Postgres startet nicht mehr

2008-11-06 Diskussionsfäden Sascha Effert
Hallo,

ich habe gerade auf meiner openSuSe 11.0 32Bit Installation festgestellt, dass 
postgres nicht mehr startet, sowohl über das init-Skript als auch wenn ich 
pg_ctl oder postgres von Hand starte. pg_ctl bringt mir folgende Ausgabe:

[EMAIL PROTECTED]:~/data> pg_ctl 
start -w -p /usr/bin/postmaster -D /var/lib/pgsql/data/ -o "-i"
waiting for server to 
start...could not 
start server
[EMAIL PROTECTED]:~/data>

Leider bekomme ich keine weiteren Informationen. In /var/log/messages 
erscheint nichts, eine andere Datei in /var/log, die mir nach Ausgaben der DB 
aussieht finde ich nicht. In /var/lib/pgsql/data wurde in keinem der 
Log-Verzeichnisse etwas verändert.

Ich habe zwischen dem letzten erfolgreichen Start und diesem nicht 
erfolgreichen Start den Kernel ausgetauscht und den 2.6.25er durch einen 
2.6.26er ersetzt (zen-Kernel von Gentoo). Das war notwendig, um das Suspend 
to ram ans rennen zu kriegen. Aber eigentlich sollte der Postgres davon nicht 
betroffen sein...

Hat jemand eine Idee? Eine Idee, wie ich an mehr Informationen als "could not 
start server" komme, würde mir wahrscheinlich schon sehr weiter helfen...

tschau


Sascha Effert
[EMAIL PROTECTED]

-- 
Being evil means it can be christmas every day.
-- 
Linux mailing list Linux@lug-owl.de
subscribe/unsubscribe: http://lug-owl.de/mailman/listinfo/linux
Hinweise zur Nutzung: http://www.lug-owl.de/Mailingliste/hints.epo


O2 Xda diamond

2008-09-12 Diskussionsfäden Sascha Effert
Hallo,

ich möchte mir ein neues Handy zulegen und dachte an ein XDA diamond von O2. 
Auf dem Gerät läuft Windows Mobile 6.1 Professional. Hat jemand eine Ahnung, 
wie das mit dem Syncen von Kontakten und Kalender unter Linux (opensync) 
aussieht?

tschau


Sascha Effert
[EMAIL PROTECTED]

-- 
Being evil means it can be christmas every day.
-- 
Linux mailing list Linux@lug-owl.de
subscribe/unsubscribe: http://lug-owl.de/mailman/listinfo/linux
Hinweise zur Nutzung: http://www.lug-owl.de/Mailingliste/hints.epo


Re: Cluster Storage

2008-09-04 Diskussionsfäden Sascha Effert
Am Donnerstag, 4. September 2008 00:50:33 schrieb [EMAIL PROTECTED]:
> Hallo!
>
> Ich habe hier ein paar Rechenknoten herumstehen, die ich als Cluster
> unter Ubuntu Server 7.10 ihre Arbeit tun. Jeder dieser Knoten hat
> zwei Festplatten a 500G, wobei die zweite Platte zur Zeit fuer wenig
> sinnvolle Dinge genutzt wird.
>
> Nun wuerde ich gern all diese sekundaeren Festplatten zu einer grossen
> virtuellen Festplatte zusammenfassen, um den Knoten dann bei Bedarf
> Partitionen aus dieser grossen virtuellen Festplatte zuweisen zu
> koennen. Natuerlich sollte die grosse virtuelle Platte ein gewisses
> Mass an Ausfallsicherheit haben, so dass der Ausfall von ein oder zwei
> Knoten kompensiert werden kann, ohne dass gleich alle Knoten ohne
> Storage sind.
>
> Ich bin bei einer ersten Suche zwar auf einige Sachen wie CLVM oder
> EVMS gestossen, aber den grossen "Das isses!"-Moment hatte ich bisher
> noch nicht...
>
> Hat hier zufaellig jemand Erfahrung in diesem Bereich und koennte
> mir den einen oder anderen Tipp geben?

Hallo Matthias,

Deine Möglichkeiten in frei sind da etwas beschränkt. Du kannst natürlich alle 
Laufwerke per iSCSI raus hauen, auf einem rechner importieren, dort per LVM 
virtuelle Laufwerke bauen und die dann wieder exprotieren an den Rechner, den 
Du schlußendlich verwenden willst. Aber der Rechner mit dem LVM bleibt als 
Flaschenhals und Single-Point-of-failure. Leider kann das selbe LVM-Laufwerk 
nicht auf verschiedenen Rechnern exitieren. Mit dm wirst Du da auch nicht 
weiter kommen, zumindest nicht so, wie Du es möchtest.

Aber an der Uni gibt es da so ein Projekt namens V:Drive... Ich würde damit 
sicherlich nicht die einzige Version meiner Dis speichern, aber in der 
Informatik läuft das seit fast 2 Jahren recht gut :-)

tschau


Sascha Effert
[EMAIL PROTECTED]

-- 
Being evil means it can be christmas every day.
-- 
Linux mailing list Linux@lug-owl.de
subscribe/unsubscribe: http://lug-owl.de/mailman/listinfo/linux
Hinweise zur Nutzung: http://www.lug-owl.de/Mailingliste/hints.epo