Guten Tag Linuxer,
ich bin Linuxanfänger und versuche mich in bashscripting.
Folgende Problemstellung:
Ich möchte von einer Webseite mit curl einen LINK abgreifen, diesen LINK dann automatisch in die Zwischenablage kopieren.
Ich weiss wie ich den LINK ermittel und wie ich diese unter Linux Mint (aktuell mein System zum testen) in die Zwischenablage kopiere.
Nur was ich nicht hinbekomme ist wie ich aus dem LINK mir nur den wichtigen Teil herausfilter um nur das wichtige in die Zwischenablage zu kopieren.
So sieht mein Skript aus:
echo -n "Bitte die URL eingeben: "
read eingabe
echo
VAR="$(curl $eingabe | grep xyz)" //Ermittlung des LINK aus der Website und speichern in VAR
echo $VAR | xsel -ib //VAR in die Zwischenablage kopieren unter LinuxMint
Es wird durch den Befehl:
folgender Inhalt ausgegeben:
'xyz': 'https://www.ffsizhsidbj943.net/engine/xyt/01/…p=4500&asn=3209', xyz.src = sources.xyz;
Aktuell wird alles in die Zwischenablage kopiert.
Ich brauche aber nur den Teil ab dem https bis zur 3209
Kann mir da jemand helfen wie man diesen Textteil kopieren kann?
sed
awk
gibt es, aber das ist doch recht kompliziert.
Vielen Dank im voraus.